【読売新聞】 画像生成AI(人工知能)で、実在の児童に酷似した画像を生成できる追加学習用データが、ネット上で売買されていることがわかった。過去に日本で活動した児童タレントの追加データもあり、追加データで作ったとみられる児童タレントに
![実在児童に酷似した性的画像、生成AIで作成か…ネット上で追加学習用データを売買](https://cdn-ak-scissors.b.st-hatena.com/image/square/86ef742d916dd7bb5be22d88071843cc5e199bbb/height=288;version=1;width=512/https%3A%2F%2Fwww.yomiuri.co.jp%2Fmedia%2F2024%2F06%2F20240601-OYT1I50157-1.jpg%3Ftype%3Dogp)
AIの発達に伴って「実在する女性の写真から衣服を剥ぎ取って裸にするAIポルノアプリ」が登場しており、すでにアメリカやスペインでは子どもたちが同級生の少女のヌード写真をAIポルノアプリで作成し、それを使っていじめや脅迫を行うという事件が発生しています。これらの事件で利用されたAIポルノアプリ「ClothOff」の背後にいる人物について、イギリスの大手日刊紙・The Guardianが調査結果を報告しました。 Revealed: the names linked to ClothOff, the deepfake pornography app | Artificial intelligence (AI) | The Guardian https://www.theguardian.com/technology/2024/feb/29/clothoff-deepfake-ai-pornogra
前回のまとめ前回の記事では日米における画像生成AIの使われ方の違いを説明しました。 雑にまとめると以下です 日本人は萌え絵を生成させている一方、アメリカ人はフェイク写真を生成させている。アメリカでは政治家が被害に遭うのでAI規制論に傾きがち 今回はAIポルノの話以下のPostが X (Twitter) で話題になっていました。 https://twitter.com/Pureevilbich/status/1751662096381587457 (2.5万RT, 16万いいね 863コメント) 元の投稿は (r/TwoXChromosomes)になされたものです。 内容はインスタグラムの写真を使われてポルノ画像を作られてしまったという話です。調べてみると友人、知人に LoRAされた AIポルノを生成されたという被害はそこそこ稀にあるトラブルのようです。今回炎上しているのは警察が対応してくれ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く