![](https://cdn-ak-scissors.b.st-hatena.com/image/square/d1d1a54b91f575047025ed22670c9743a42c404d/height=288;version=1;width=512/https%3A%2F%2Fafpbb.ismcdn.jp%2Fmwimgs%2Fa%2Fc%2F1000x%2Fimg_ac9d452ac010d31c487762597861762096684.jpg)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント8件
- 注目コメント
- 新着コメント
![godmother godmother](https://cdn.profile-image.st-hatena.com/users/godmother/profile.png)
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
顔認識システム、非白人の顔を正しく認識できず 米研究
スペイン・バルセロナのATMで顔認証システムを利用する女性(2019年2月14日撮影、資料写真)。(c)LLUIS ... スペイン・バルセロナのATMで顔認証システムを利用する女性(2019年2月14日撮影、資料写真)。(c)LLUIS GENE / AFP 【12月20日 AFP】米国立標準技術研究所(NIST)は19日、顔認識システムが特に非白人について、ひどく不正確な結果を出すとの研究結果を公表した。人工知能(AI)技術の導入が幅広く推進される中、新たな問題を投げ掛けることになりそうだ。 NISTによると、顔認識アルゴリズムには、異なる2人を同一人物と認識する「フォールスポジティブ(False positive、誤検知)」と、同一人物を認識できない「フォールスネガティブ(False negative、見逃し)」の双方がみられた。 多数のアルゴリズムで、アジア系とアフリカ系が「フォールスポジティブ」となる割合は白人の100倍超だった。 米国で開発されたアルゴリズムでは、アジア系、アフリカ系、先住民系で正し
2019/12/22 リンク