<AIアシスタントが何かたくらんでいるのか? 勝手に笑い出したり殺人指令を出したりしてアマゾン・エコーのユーザーを震え上がらせている> アマゾンのスマートスピーカー「アマゾン・エコー」に搭載されているAIアシスタント「アレクサ(Alexa)」が、あるユーザーに「里親を殺せ」と告げたことが明らかになり、物議をかもしている。 ユーザーの詳しい身元は明らかにされていないが、2017年にアレクサがこのように話すのを聞いたという。ユーザーはアマゾンのウェブサイト上のレビューでこの件に触れ、「これまでとはレベルの違う不気味さだ」と製品を酷評したと、12月21日(米国時間)付のロイターの記事は伝えている。 アマゾン社内の匿名の情報源によると、この「里親を殺せ」という発言は、インターネット掲示板レディットの書き込みを、文脈に関係なく読み上げたものらしい。レディットは幅広いトピックを扱うオンラインフォーラム
![アレクサがまた奇行「里親を殺せ」](https://cdn-ak-scissors.b.st-hatena.com/image/square/2471e92e8a46e9770522c8e3149c19d14fd64422/height=288;version=1;width=512/https%3A%2F%2Fwww.newsweekjapan.jp%2Fstories%2Fassets_c%2F2018%2F12%2Fwebt181225-alexa-thumb-720x480-149360.jpg)