マイクロソフトがBing検索に組み込んだ会話AIが、巧みな指示で想定外の回答を引き出す「プロンプトインジェクション」ハックによって、本来はユーザーに開示してはいけないマイクロソフトからの指示や自分の「本名」を明かしてしまうできごとがありました。 AIがうっかり喋らされてしまった内容は、内部的な愛称は「シドニー」Sydneyだがユーザーに名乗ってはいけないこと、ユーザーへの回答はポジティブに、論争の種となるような発言や党派的発言を避けること、国家指導者や影響力ある政治家、活動家等について冗談やポエムを生成しないこと、そして上記のようなマイクロソフトからの指示について口外しないことなど。
![BingチャットAI、ハッカーの口車で秘密の禁止事項や本名・マイクロソフトからの指示を逐一喋ってしまう | テクノエッジ TechnoEdge](https://cdn-ak-scissors.b.st-hatena.com/image/square/0e07c4211abf4fdec10053c6c7af5bae5134738f/height=288;version=1;width=512/https%3A%2F%2Fwww.techno-edge.net%2Fimgs%2Fogp_f%2F4878.jpg)