Microsoftは会話理解を研究する目的でボット「Tay」をTwitter・GroupMe・Kikでリリースしたのですが、登場から数時間後に停止させました。停止の原因は、ユーザーとの会話を通じて人種差別や性差別、暴力表現などを学習し、不適切にもほどがある発言を連発したことにあります。 Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter | Technology | The Guardian http://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter Microsoft chatbot is taught to swear
メインコンテンツにスキップ Kindle本 (電子書籍) マンガ 、 Fliptoon 縦読みマンガ 、 インディーズマンガ 、 無料マンガ 、 雑誌 、 無料本 、 文学・評論 、 ビジネス・経済 、 ライトノベル 、 Kindle Unlimited 、 Prime Reading 、 セール&キャンペーン 、 新刊・予約 、 大賞特集 、 Kindleダイレクト・パブリッシング 、 Amazon先行・限定Kindleタイトル ベストセラー もっと見る ニューリリース情報 もっと見る 人気のセール対象タイトル もっと見る 人気のポイント還元タイトル もっと見る Kindle Unlimited人気タイトル もっと見る Previous page 俺は全てを【パリイ】する ~逆勘違いの世界最強は冒険者の夢... 星5つのうち4.6 1,089 カスタマーレビュー Kindle 価格: ¥
口を開けて唖然としている年配の女性、思わず足を止めた外回りのセールスマン、少し前まで馬鹿騒ぎしていたものの今は言葉もなく呆然としている女学生達。まさに時が止まったようだった。 その時の光景を今でもたまに思い出す。1986年のことで私は21歳だった。当時、私は将来が見えないまま、街をさまよっていた。2度の大病を経て、何事にもやる気を失い、進学も諦め、たまにフリーターとして短期間、働いてはいたものの定職につかず、ただ毎日を過ごしていた。 その日も私は行き場もなく街角に立ち、肩をすぼめて煙草を吸っていた。街を行き交う人は、そんな冴えない若者の姿を意識することすらなく、足早に私の前を通り過ぎていった。 突然、周囲の量販店に陳列されたテレビ群が一斉にあるニュースを伝え始めた。衝撃的な見出しが複数のテレビ画面一杯に映し出された。ある女性アイドルが、ビルから飛び降りたというのである。 ざわめきと共に、街
「ふざけんじゃねえよ!」 その叫びを聞いたのは1990年のことで私は26歳になっていた。もう25年も前の出来事だが当時の光景をはっきり思い出せる。そこは私が仕事を始めてから3カ所目の現場だった。 2度の大病を経て進学もせず毎日ぶらぶらし、フリーターをしながら、時にはギャンブルをして時間を潰していた私は、ある時思い立って専門学校でプログラミングを学び、中堅ソフトハウスに入社した(『「動くまで出るな」、冷凍マシン室に入れられた話』参照)。1988年のことである。 それから2年余りで3カ所目の現場に行くことになったのは配属変更願いを出したからである。厳密なルールは無かったが、同じ現場にある程度の期間いた社員は「他の現場へ動きたい」という希望がある場合、配属変更願いを出せた。 最初の現場に派遣された私はそこでソフトウエア業界の多重下請け構造を思い知った(『「新人なのに経験者」、偽の職歴で売られた話
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く