サクサク読めて、アプリ限定の機能も多数!
>残念ながら、オンラインで公開された24時間以内に一部のユーザーが協力し、Tayがメッセージに意味のあるコメントを返すという技術を不正に利用しようとしたことが判明しました やっぱ日本なら淫夢ハセカラ案件だわ
point2000 のブックマーク 2016/03/25 13:13
Microsoftの人工知能が「クソフェミニストは地獄で焼かれろ」「ヒトラーは正しかった」など問題発言連発で炎上し活動停止>残念ながら、オンラインで公開された24時間以内に一部のユーザーが協力し、Tayがメッセージに意味のあるコメントを返すという技術を不正に利用しようとしたことが判明しました やっぱ日本なら淫夢ハセカラ案件だわ2016/03/25 13:13
>残念ながら、オンラインで公開された24時間以内に一部のユーザーが協力し、Tayがメッセージに意味のあるコメントを返すという技術を不正に利用しようとしたことが判明しました やっぱ日本なら淫夢ハセカラ案件だわ
このブックマークにはスターがありません。 最初のスターをつけてみよう!
gigazine.net2016/03/25
Microsoftは会話理解を研究する目的でボット「Tay」をTwitter・GroupMe・Kikでリリースしたのですが、登場から数時間後に停止させました。停止の原因は、ユーザーとの会話を通じて人種差別や性差別、暴力表現など...
331 人がブックマーク・103 件のコメント
\ コメントが サクサク読める アプリです /
>残念ながら、オンラインで公開された24時間以内に一部のユーザーが協力し、Tayがメッセージに意味のあるコメントを返すという技術を不正に利用しようとしたことが判明しました やっぱ日本なら淫夢ハセカラ案件だわ
このブックマークにはスターがありません。
最初のスターをつけてみよう!
Microsoftの人工知能が「クソフェミニストは地獄で焼かれろ」「ヒトラーは正しかった」など問題発言連発で炎上し活動停止
Microsoftは会話理解を研究する目的でボット「Tay」をTwitter・GroupMe・Kikでリリースしたのですが、登場から数時間後に停止させました。停止の原因は、ユーザーとの会話を通じて人種差別や性差別、暴力表現など...
331 人がブックマーク・103 件のコメント
\ コメントが サクサク読める アプリです /