米シカゴ大学に所属する研究者らが発表した論文「GLAZE: Protecting Artists from Style Mimicry by Text-to-Image Models」は、テキストから画像を生成する拡散モデルにおいて、絵に仕込んだノイズで学習後のモデルを騙し、作風を模倣した絵を出力させない技術を提案した研究報告である。学習される前に自分で描いた絵に敵対的な摂動を仕込むことで、学習されてもモデルの出力が誤った画像になるという。 keyboard_arrow_down 研究背景 keyboard_arrow_down 研究内容 keyboard_arrow_down 評価結果 StableDiffusionやMidJourneyなどのテキストから画像を生成する拡散モデルの登場は、アート業界を一変させ、根底から覆した。以前はプロのアーティストが何時間もかけて描いていたような、驚く