![](https://cdn-ak-scissors.b.st-hatena.com/image/square/dcb47260d9034afdefd36be6be745a165e9c519d/height=288;version=1;width=512/https%3A%2F%2Fnewsatcl-pctr.c.yimg.jp%2Ft%2Fiwiz-yn%2Frpr%2Fohmototakashi%2F00352776%2Ftitle-1686097723308.jpeg%3Fexp%3D10800)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
AIの画像生成能力を悪用した恐喝行為、"セクストーション"が増加傾向に。FBIが警告(大元隆志) - エキスパート - Yahoo!ニュース
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
AIの画像生成能力を悪用した恐喝行為、"セクストーション"が増加傾向に。FBIが警告(大元隆志) - エキスパート - Yahoo!ニュース
2023年6月5日、AIの進化によって一般人を狙う新たな脅威が増えていることについて、アメリカの連邦捜査... 2023年6月5日、AIの進化によって一般人を狙う新たな脅威が増えていることについて、アメリカの連邦捜査局(FBI)が警告を発しました。AIの画像生成技術を利用して、SNS等で共有された一般的な写真を、猥褻な写真や動画に変換し被害者を脅迫する「セクストーション」と呼ばれる犯罪行為が増加しているとのことです。 ■ディープフェイクによるコンテンツ作成 ディープフェイクとはAIと機械学習を使用して生成または操作された広範なデジタル メディア (画像、ビデオ、音声、テキストなど。総称して「合成コンテンツ」または「合成メディア」と呼ばれます) を指します。攻撃者たちは、このディープフェイクを悪用して、普通の写真や動画から猥褻なコンテンツを生成しています。 近年の生成型AIの進化により、特殊な技術を持たない人でも簡単にフェイクコンテンツを作成できるようになりました。 ■ディープフェイクを用いたセクスト