エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
「芸能人200人がポルノ合成の餌食に」アイコラとは段違いのディープフェイクの怖さ 専用ソフトなら約4時間で作成可能
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
「芸能人200人がポルノ合成の餌食に」アイコラとは段違いのディープフェイクの怖さ 専用ソフトなら約4時間で作成可能
女性芸能人の顔写真を合成した偽のアダルト動画で、国内初の逮捕者が出た。ITジャーナリストの高橋暁子... 女性芸能人の顔写真を合成した偽のアダルト動画で、国内初の逮捕者が出た。ITジャーナリストの高橋暁子氏は「昔のアイドルコラージュとは比べものにならない高精度。ディープフェイクと呼ばれる動画は1年半で6倍に増えており、決してひとごとではない」という――。 ディープフェイクで偽のアダルト動画、初の逮捕者 ディープフェイク動画をご存じだろうか。AIのディープラーニングとフェイクを足し合わせた造語だ。AI技術を使って別の画像を合成し、本人が出演した本物の動画と見分けがつかないほどそっくりな偽(フェイク)の動画のことだ。 この技術を悪用したとして、10月に国内初の逮捕者が出た。女性アイドルや女優の顔写真をアダルト動画に合成し、インターネット上で配信。名誉毀損と著作権法違反の疑いで男3人が警視庁などに逮捕された。 警視庁によると、被害に遭った女性芸能人らは約200人に上り、3500本以上のアダルト動画が

