![](https://cdn-ak-scissors.b.st-hatena.com/image/square/688eee5bac16cee6ca449bfc7c4ba7d946989a53/height=288;version=1;width=512/https%3A%2F%2Ftechable.jp%2Fwp-content%2Fuploads%2F2022%2F02%2Fai-generated-faces-fou.jpeg)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
あなたはディープフェイクに騙されてない?合成顔と本物の顔を区別できる確率は48%|ガジェット通信 GetNews
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
あなたはディープフェイクに騙されてない?合成顔と本物の顔を区別できる確率は48%|ガジェット通信 GetNews
イギリスのランカスター大学とカリフォルニア大学バークレー校の共同研究チームは、最新のAIテクノロジ... イギリスのランカスター大学とカリフォルニア大学バークレー校の共同研究チームは、最新のAIテクノロジーで生成された人間の顔(合成顔)の画像と、本物の人間の顔の画像を区別できるかという実験を行いました。 研究チームによると、それら2つの区別をつけるのは難しく、「ディープフェイク」を防ぐためのセーフガードの必要性を訴えています。 ディープフェイクを見抜くのは至難の業 私たちの生活にとって身近な存在となりつつある便利なAIですが、悪意を持った者が使うことで、恐ろしい事例が起きていることも事実。 たとえば、AIが合成したテキスト・音声・画像・映像は、詐欺やプロパガンダ、またいわゆる「リベンジポルノ」などでも利用されています。 なかでも、とくに悪用される可能性が高いというディープフェイクについて、イギリスのランカスター大学とカリフォルニア大学バークレー校の共同研究チームが実験を行いました。ディープフェ