![](https://cdn-ak-scissors.b.st-hatena.com/image/square/05e1d2e511dccb4eefcce366fae173218a14ca48/height=288;version=1;width=512/https%3A%2F%2Fimages.forbesjapan.com%2Fmedia%2Farticle%2F29068%2Fimages%2Fmain_image_290687f1de7a5b35532a6d13bcf4d611a3431.jpg)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント15件
- 注目コメント
- 新着コメント
![gogatsu26 gogatsu26](https://cdn.profile-image.st-hatena.com/users/gogatsu26/profile.png)
![Domino-R Domino-R](https://cdn.profile-image.st-hatena.com/users/Domino-R/profile.png)
![kaos2009 kaos2009](https://cdn.profile-image.st-hatena.com/users/kaos2009/profile.png)
![Fuggi Fuggi](https://cdn.profile-image.st-hatena.com/users/Fuggi/profile.png)
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
グーグルの「ヘイト監視AI」が人種差別を助長する皮肉な結果 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
グーグルは2016年にSNSやウェブサイト上の、ヘイトスピーチを監視するAI(人工知能)アルゴリズムを開発... グーグルは2016年にSNSやウェブサイト上の、ヘイトスピーチを監視するAI(人工知能)アルゴリズムを開発した。しかし、このAIが全く逆の結果をもたらし、人種的偏見を助長するものあることが発覚した。 アルゴリズムにヘイト発言を学習させるため、グーグルはPerspectiveと呼ばれるAPIで「有害」のラベルづけをした10万件以上のツイートを用意した。有害な発言の定義は「侮辱的な内容や敬意を欠いた言葉づかい」とされていた。これらの素材をマシンラーニングで学習させることで、アルゴリズムがコンテンツの有害性を評価することが期待されていた。 しかし、ワシントン大学の研究者らの調査でこのAIツールが、黒人のツイートをヘイトスピーチに分類することが分かった。アルゴリズムは黒人のSNSへの投稿を、高い確率で有害コンテンツに分類していたが、実際は無害な発言ばかりだったという。 研究チームのMaarten
2019/08/14 リンク