![](https://cdn-ak-scissors.b.st-hatena.com/image/square/e997dbdc3b15823920397fa67c34cc33318c3ea1/height=288;version=1;width=512/https%3A%2F%2Fmedia.loom-app.com%2Fgizmodo%2Fdist%2Fimages%2F2017%2F12%2F20%2Fdesert_nake.jpg%3Fw%3D1280%26h%3D630%26f%3Djpg)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
人工知能には「砂漠」の画像がエロ画像に見えるらしい
エロの哲学。 ロンドン警視庁には、児童虐待、児童ポルノにあたる画像を人工知能を使って調査していくと... エロの哲学。 ロンドン警視庁には、児童虐待、児童ポルノにあたる画像を人工知能を使って調査していくというプロジェクトがあり、2、3年内をメドに実用化したい考え。が、どうやらこれが思ったより難航しているようす。なんでも、人工知能は砂漠と児童ポルノ画像の見分けがつかないんですって。 人工知能が困惑するのは、肌の色と砂漠の色。一面砂漠という画像を、裸の人と認識してしまうのです。いや、これはわからなくもないですよ…。担当者のMark Stokes氏いわく、スクリーンセーバーに砂漠画像を設定している人が不思議と多く、これにいちいち人工知能が反応している状態なんだとか。ロンドン警視庁では、児童ポルノだけでなく、ドラッグや武器などの画像を認識する人工知能スキャンのプロジェクトもあり、こちらは良好。しかし、なぜだか裸画像には弱い人工知能。 プロジェクトに協力しているのは、シリコンバレーのとある企業とのことで
2018/07/27 リンク