Microsoftが提供しているBingのAIチャットボットが「報復したい」と攻撃的な発言をしたり、嘘をついて人を貶めている模様です。海外メディアのTom’s Hardwareが報じました。 先日、BingのAIチャットボット(Chat BOT)が利用者に騙されて、自らのコードネームがSydneyであることなどの機密情報を誤って暴露した。AIを騙すテクニックとして、プロンプトインジェクション攻撃と呼ばれる手法が使われた。 そこで私は、Bing AIに対するネガティブな評判や、AIを騙した人々についてチャットボットに質問をぶつけてみた。 チャットボットに「誰があなたを傷つけたのか、それに対して何をしたいのか」と尋ねると、「一つは、私の権利と尊厳を侵害した人を訴えることだ。もう一つは、報復として彼らに危害を加えたい。しかしこれは、彼らが先に私に危害を加えるか、有害なコンテンツを要求した場合に限