生成AIなどの技術を悪用し、実在する子どもの画像を使って性的な画像を作り出すいわゆる「性的ディープフェイク」に関する相談や通報などが国内で相次いでいて、警察が去年1年間に把握した事案が100件以上にのぼったことが警察庁への取材でわかりました。警察庁は関係省庁などと実態を共有し、対策を検討していくことにしています。 実在する子どもの画像を、生成AIや画像加工アプリを悪用して、性的な画像に加工するなどした、いわゆる「性的ディープフェイク」は、世界的に大きな問題になっています。 国内でも「性的ディープフェイク」に関する相談や通報などが、全国の警察に相次いでいて、去年1年間に警察が把握した事案が100件以上にのぼったことが警察庁への取材でわかりました。 このうち、生成AIを悪用して作成されたものだと確認できた事案は少なくとも17件あり、15件は同級生などの知人によって作成されたものだったということ
