by ライブドアニュース編集部 ざっくり言うと ロンドン警視庁の人工知能プロジェクトが難航しているという 人工知能は砂漠と児童ポルノ画像の見分けがつかないため 肌の色と砂漠の色に困惑し、一面砂漠の画像を裸の人と認識する 提供社の都合により、削除されました。 概要のみ掲載しております。 関連ニュース ランキング 総合 国内 政治 海外 経済 IT スポーツ 芸能 女子
![人工知能の画像認識に意外な弱点 ポルノ画像と砂漠の区別つかず - ライブドアニュース](https://cdn-ak-scissors.b.st-hatena.com/image/square/6834aa0fb7ed07f9a38a89798c2153d7c3bc0224/height=288;version=1;width=512/https%3A%2F%2Fnews.livedoor.com%2Fimg%2Ffb%2Fnews.png%3Fv%3D3.04)
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く