生成AI(人工知能)を悪用し、実在する子どもや成人女性などを性的に加工した画像や動画「性的ディープフェイク」が国内で急拡大している。偽の性的画像は以前から問題になっていたが、生成AIの登場で事態はより深刻な局面に入り、新たな問題にも直面している。被害の実態や手口を追った。 「爆発的」な広がり 「この集合写真、女の子だけが全員裸に加工されてしまっている」 インターネット上をパトロールするボランティア団体「ひいらぎネット」の永守すみれ代表は、パソコン画面をスクロールしながら険しい表情を見せた。 従来の偽の性的画像の場合、既存のポルノ画像に顔をはめ込む形が一般的だ。一方ディープフェイクは顔や背景は元のままで、体が生成された裸であることが多いという。顔と体の継ぎ目部分も分からないなど、より精巧にもなっている。 永守さんらは児童ポルノや盗撮画像などを探し、プラットフォーム事業者や警察、学校などに通報
