タグ

Deepfakeに関するumyutanのブックマーク (7)

  • 合成ポルノ画像を拡散、韓国「新手の性犯罪」の闇

    2020年、若い女性たちにみだらな動画の撮影を強要して有料視聴者に見せていた脅迫グループを追っていた韓国当局は、SNSの闇の奥で流れている別の問題を見つけた。他人の顔を露骨に合成したポルノ画像だ。 新たに浮上しつつあるディープフェイクポルノの試みに当局はどう対処してよいかわからず、その結果、ディープフェイクポルノの制作・流布を取り締まる曖昧な文言の法律が国会で制定された。それでも、AI技術を使った犯罪の波を防ぐことはできず、女性を見下す韓国のオンライン文化は新たな深みを見せている。 最近では、一段と多くの若い男性や10代の少年が同級生や教師、軍の同僚のSNS画像——そのほぼすべてが未成年者を含む若い女性や少女のものだ——を何百、何千と入手し、ディープフェイクアプリを使って彼女たちを性的に搾取する画像や動画を作成していることが発覚し、国民に衝撃が広がっている。 物そのものに見える恐ろしさ

    合成ポルノ画像を拡散、韓国「新手の性犯罪」の闇
  • “ディープフェイクポルノ”初摘発 AIで演者と芸能人の顔を差し替え公開した疑い 千葉県警

    大学生の林田拓海容疑者と、システムエンジニアの大槻隆信容疑者は2019年12月から20年7月ごろ、運営していたWebサイトで加工後のポルノ動画を合計約400公開。約80万円以上の収益を得ていたという。 警察庁と千葉県警は19年に動画を発見。動画を加工して公開する行為が著作権法に違反し、芸能人の顔に差し替える行為が当該芸能人に対する名誉毀損に当たるとして2人を逮捕した。 ポルノ動画の作成にはフリーソフトを使っており、両容疑者は「お金が欲しかった」「評価を得るために公開した」と容疑を認めている。 AIで動画を加工して公開する行為が摘発されたのは初だが、千葉県警は「AIを使わない既存の手段でも、同様の行為を行えば逮捕する可能性はある」としている。 関連記事 映像の加工はどこまで許される? 「グレーゾーン」ディープフェイクの登場 ディープフェイクはどこまで許されるのか、という問題について、小林啓

    “ディープフェイクポルノ”初摘発 AIで演者と芸能人の顔を差し替え公開した疑い 千葉県警
  • TechCrunch | Startup and Technology News

    TechCrunch Daily News Every weekday and Sunday, you can get the best of TechCrunch’s coverage. Startups Weekly Startups are the core of TechCrunch, so get our best coverage delivered weekly.

    TechCrunch | Startup and Technology News
  • 映像の加工はどこまで許される? 「グレーゾーン」ディープフェイクの登場

    映像の加工はどこまで許される? 「グレーゾーン」ディープフェイクの登場:動画の世紀(1/2 ページ) この連載でも以前取り上げた「ディープフェイク」。AI技術の一種である「ディープラーニング」と「フェイク」を組み合わせた言葉で、ディープラーニングを使って真実ではないコンテンツ(映像や音声など)を制作する行為を指します。ただ最近は、ディープラーニングが使われているかどうかよりも、単に「当かどうか見分けがつかないほど精巧に加工されたコンテンツ」という意味で使われることが多くなっているようです。 規制が始まったディープフェイク このディープフェイク、あえて「フェイク」という言葉が使われていることからも分かるように、あまり好ましくない行為というニュアンスが含まれています。前回の記事でも紹介したように、サイバーセキュリティ会社のDeeptraceによれば、ディープフェイク・ビデオの実に96%がアダ

    映像の加工はどこまで許される? 「グレーゾーン」ディープフェイクの登場
  • 日本人アイドルも被害に。96%がポルノ動画の「ディープフェイク」政治的な悪用も

    Search, watch, and cook every single Tasty recipe and video ever - all in one place! News, Politics, Culture, Life, Entertainment, and more. Stories that matter to you.

    日本人アイドルも被害に。96%がポルノ動画の「ディープフェイク」政治的な悪用も
    umyutan
    umyutan 2019/12/09
    Deepfakeの派生で、開発停止したけどNSFWな DeepNude というのもある。機械学習の剝ぎコラ、GAFAが後手後手に回ってるイメージ。
  • Twitter、ディープフェイク投稿対策でアンケートを実施中

    Twitterは11月11日(現地時間)、いわゆる「ディープフェイク」を含む投稿に関するポリシー策定に当たって、ユーザーの意見を求めるアンケートを開始した。日語でも回答できる。 ディープフェイクとは、手が加えられたり捏造されたりした写真や動画のこと。特に、他人を欺こうとしたり困惑させたりすることを目的に改ざんしたものを指す。 Twiwtterはディープフェイクの例として、誰かが病気だったり酔っぱらったりしているように見える動画、存在しない人を追加したり存在した人を削除したりした写真、実際には起こらなかった出来事をあたかも起こったかのように映し出す動画を挙げた。 なお、顔の赤らみや身体的な特徴を消した写真や動画はディープフェイクには含まれない。 アンケートでは、こうしたディープフェイクを含む投稿に対して、完全に削除すべきか、ディープフェイクの可能性があるというラベルを付けたり、そうした投

    Twitter、ディープフェイク投稿対策でアンケートを実施中
  • Creating a dataset and a challenge for deepfakes

    Data sets and benchmarks have been some of the most effective tools to speed progress in AI. Our current renaissance in deep learning has been fueled in part by the ImageNet benchmark. Recent advances in natural language processing have been hastened by the GLUE and SuperGLUE benchmarks. “Deepfake” techniques, which present realistic AI-generated videos of real people doing and saying fictional th

    Creating a dataset and a challenge for deepfakes
  • 1