シカゴ大学の研究チームがAIによる画像学習を防止するツール「Nightshade」を開発しています。Nightshadeを用いて画像を処理すると画像の見た目を大きく変えずにAIによる学習を阻害することが可能とのことです。 [2310.13828] Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models https://arxiv.org/abs/2310.13828 Meet Nightshade, the new tool allowing artists to 'poison' AI models | VentureBeat https://venturebeat.com/ai/meet-nightshade-the-new-tool-allowing-artists-to-poison-ai-model