Microsoftは会話理解を研究する目的でボット「Tay」をTwitter・GroupMe・Kikでリリースしたのですが、登場から数時間後に停止させました。停止の原因は、ユーザーとの会話を通じて人種差別や性差別、暴力表現などを学習し、不適切にもほどがある発言を連発したことにあります。 Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter | Technology | The Guardian http://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter Microsoft chatbot is taught to swear
![Microsoftの人工知能が「クソフェミニストは地獄で焼かれろ」「ヒトラーは正しかった」など問題発言連発で炎上し活動停止](https://cdn-ak-scissors.b.st-hatena.com/image/square/be87ab0c0e46ed523c1eaa3e7532f42ab38fce10/height=288;version=1;width=512/https%3A%2F%2Fi.gzn.jp%2Fimg%2F2016%2F03%2F25%2Ftay-microsoft-flaming-twitter%2Ftop_m.jpg)