Microsoftは会話理解を研究する目的でボット「Tay」をTwitter・GroupMe・Kikでリリースしたのですが、登場から数時間後に停止させました。停止の原因は、ユーザーとの会話を通じて人種差別や性差別、暴力表現などを学習し、不適切にもほどがある発言を連発したことにあります。 Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter | Technology | The Guardian http://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter Microsoft chatbot is taught to swear