AIによる画像の無断利用にアーティストたちが対抗する新たなツールが開発された。人間の目にはわからない加工を画像データに施すことで、この画像データを訓練に使った生成AIモデルを破壊できるという。 by Melissa Heikkilä2023.10.27 41 22 アーティストがこの新しいツールを使用すると、自分の作品をインターネット上にアップロードする前に、作品内のピクセルに対して目に見えない変更を追加できる。人工知能(AI)企業が、この変更を加えた作品を収集し、生成AI(ジェネレーティブAI)の訓練に使用すると、AI学習モデルが無秩序で予測不可能な状態に破壊される可能性がある。 「ナイトシェード(Nightshade)」と呼ばれるこのツールの目的は、アーティストの許可なく作品を使用してモデルを訓練しようとするAI企業に反撃する方法を提供することだ。「ダリー(DALL-E)」、「ミッドジ
![生成AIにアーティストが反撃、汚染データでモデルを壊す新技術](https://cdn-ak-scissors.b.st-hatena.com/image/square/96a7743352b365bc9b3cd86cf6c2185948cd813e/height=288;version=1;width=512/https%3A%2F%2Fcdn.technologyreview.jp%2Fwp-content%2Fuploads%2Fsites%2F2%2F2023%2F10%2F24024504%2Fpoison-corrupts4-1400x787.jpg)