米マイクロソフト(MS)が開発し、実験中だった人工知能(AI)の「Tay(テイ)」が、ツイッター上でヒトラーを肯定したり、人種差別的な言葉を発したりし始めた。同社は24日、しばらく実験を中止することを明らかにした。 MSによるとテイは、インターネット上で人間とやり取りをすればするほど言葉を学び、反応も覚えるようになる。写真を送れば気の利いた感想を返すこともできる。「開発にはコメディアンなども加わり、ネット上で人とつながり、気楽に楽しい会話が出来るように作られた」(MS)という。しかし、人がツイッター上に書き込む内容を覚えていくため、これを使って差別的な内容を覚えさせた人たちがいたとみられる。 すでにツイートは削除されたが、米CNNによると「ヒトラーは正しかった。ユダヤ人は嫌いだ」「フェミニストは嫌いだ。死んで地獄で焼かれればいい」などとツイートしていた。MSは「テイは技術的な実験であると同