Microsoftの人工知能(AI)チャットボット「Tay」は、若者のくだけた会話を模倣するよう作られたが、Twitter上で扇動的で人種差別的な発言を繰り返した後、先週いったん「寝かしつけられて」いた。だが、短い仮眠を終えたTayは30日に目を覚まし、数時間にわたって無意味なたわごとを吐き出した末に、再び眠りについた。 このAIを使ったTwitterボットは、Microsoftの研究プロジェクトの1つとして世に送られたもので、現実の人間とのやり取りを通じて、ミレニアル世代独特の会話を学ぶように設計されていた。だが、登場から数時間で、TayはTwitterによってインターネット上の最も悪い言葉を教えこまれてしまった。そこで生みの親であるMicrosoftは、「調整」を行うためとして、しばらくTayをオフラインにする対応を取った。 だが、外出を禁じられた反抗的なティーンエージャーの多くと