しばらく前のことだが、マイクロソフト社の開発したチャット・ボット(おしゃべりロボット)Tayがツイッターで不適切な発言をしたということで大騒ぎになった。ヒトラーの名をあげて人種差別的な攻撃をしたり、口汚くみだらな発言をくりかえしたりしという。一時的にサービスは停止され、マイクロソフト社は謝罪せざるをえなかった。TayはAI(人工知能)の自然言語処理技術にもとづくチャット・ボットだが、ソフトウェアそのものが悪いのではなく、一部のユーザが対話を通じてTayに「好ましくない調教」をほどこした、というのが真相のようである。 だが、なぜそんな大事件になったのだろうか。同様の差別発言をする人間は幾らでもいる。チャット・ボットつまりAIの発言だから非難が集中したわけで、そこにはAIは公平中立であり正確な知識をもっている、という一般人の思い込みがある。つまり、レイ・カーツワイルやニック・ボストロムなど超人