>残念ながら、オンラインで公開された24時間以内に一部のユーザーが協力し、Tayがメッセージに意味のあるコメントを返すという技術を不正に利用しようとしたことが判明しました やっぱ日本なら淫夢ハセカラ案件だわ

point2000point2000 のブックマーク 2016/03/25 13:13

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

Microsoftの人工知能が「クソフェミニストは地獄で焼かれろ」「ヒトラーは正しかった」など問題発言連発で炎上し活動停止

    Microsoftは会話理解を研究する目的でボット「Tay」をTwitter・GroupMe・Kikでリリースしたのですが、登場から数時間後に停止させました。停止の原因は、ユーザーとの会話を通じて人種差別や性差別、暴力表現など...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう