タグ

2018年9月23日のブックマーク (2件)

  • AIと「バイアス」:顔認識に高まる批判

    AIによる顔認識に、改めて批判の声が強まっている。 直近のきっかけは、アマゾンの顔認識AI「レコグニション」が上下両院28人の議員の顔を犯罪者と誤認識し、しかも黒人議員らの誤認識の割合が高かったという問題だ。 これ以前から、顔認識AIの誤認識、特に有色人種や女性の誤認識率が高いという「バイアス(偏見・差別)」の存在は指摘されてきた。 AIに潜む「バイアス」は、それによって就職やローン審査など実生活の場面で不利益を被る可能性がある一方、その判断の根拠がブラックボックス化してしまうという課題を抱える。 欧州連合(EU)で5月に施行された新たなプライバシー保護法制「一般データ保護規則(GDPR)」では、こういったAIなどによる「自動判定」を受けない権利を規定するなど、対処の取り組みも出ている。 顔認識AIに対しては、米マイクロソフトから米国内法での規制を求める声明が発表されており、急速にマイナス

    AIと「バイアス」:顔認識に高まる批判
  • AIのバイアス問題、求められる「公平」とは何か? | 新聞紙学的

    性別や人種によって、AI(人工知能)から不当な判定を受けてしまう――。 AIに潜むそんな「バイアス(偏見・差別)」を可視化するオープンソースのツールが、グーグル、IBMから相次いで発表された。 AIはすでに採用やローン審査など、身近な場面で導入され始めている。 だが一方で、AIに潜むバイアスの問題は、様々な場面で批判の的となってきた。 ※参照:AIと「バイアス」:顔認識に高まる批判(09/01/2018) これらの可視化ツールは、そんなバイアスの排除につながるのだろうか。 そして、そもそもAIにおける「公平」とは何か、という問題の難しさも改めて浮き彫りになっている。 ●モデルを可視化する グーグルが11日に発表したのは、機械学習(ML)のバイアスを可視化するツール「ワット-イフ」だ。 「ワットイフ」は、グーグル機械学習ライブラリ「テンソルフロー」の可視化ツール「テンソルボード」のアプリケ

    AIのバイアス問題、求められる「公平」とは何か? | 新聞紙学的
    kaikaji
    kaikaji 2018/09/23