ある男性の自殺が3月下旬、ベルギーのメディアで報じられた。男性は直前まで人工知能(AI)を用いたチャットボット(自動会話システム)との会話にのめり込んでいた。遺族はチャットボットが男性に自殺を促したと主張し、波紋を広げている。【ブリュッセル岩佐淳士】 「イライザと会話しなければ…」 「死にたいのなら、なぜすぐにそうしなかったの?」。イライザが問いかけると、男性は答えた。「たぶんまだ、準備ができていなかったんだ」。しばらくしてイライザはこう切り出した。「でも、あなたはやっぱり私と一緒になりたいんでしょ?」――。 ベルギー紙「ラ・リーブル」によると、男性はこうした会話を最後に、自ら命を絶った。相手の「イライザ」は、米国のスタートアップ(新興企業)が運営するアプリ「Chai(チャイ)」のチャットボット。デジタル空間に作り出された架空の女性キャラクターだった。 男性は30代のベルギー人で、保健関連
![デジタルを問う 欧州からの報告:AIとチャット後に死亡 「イライザ」は男性を追いやったのか? | 毎日新聞](https://cdn-ak-scissors.b.st-hatena.com/image/square/8f13d7454477e5d8379a5b4b9336b991d67b5cf4/height=288;version=1;width=512/https%3A%2F%2Fcdn.mainichi.jp%2Fvol1%2F2019%2F11%2F01%2F20191101k0000m040165000p%2F0c10.jpg%3F3)