グーグルのAI倫理研究チーム責任者の解雇をきっかけに、AIが持つバイアスの問題に注目が集まっている。大量のテキストから学習するAIは、人種やジェンダーに関する過去のバイアスを取り込んでしまうという。より公正な判断をするAIの開発には、時間と資金を犠牲にしてでも人間のチェックを介在させる必要がある。 米国の政治科学者バージニア・ユーバンクス氏は、2010年代に「人工知能(AI)を組み込んだコンピューター・プログラムは貧しい人々に被害を与えているか」というテーマで研究に着手し、ピッツバーグやロサンゼルスなどで調査を実施した。 その成果をまとめた著書『オートメーティング・インイクオリティ(自動化する不平等)』(2018年)を読むと、背筋が凍る思いがする。ユーバンクス氏によると、医療や給付金、治安関連の業務で用いられるAIシステムは、官民問わず、偏ったデータと人種的・ジェンダー的なバイアスに基づい