OpenAIの対話型AI「ChatGPT」の改良版を組み込んだMicrosoft Bingのチャットボットは、リリース直後からその性能の高さで話題になりましたが、「人間になりたい」と訴えたり狂ったように同じ言葉を繰り返したりと、想定外の発言でユーザーを驚かせる一面もあります。そんなBingのAIが新たに、学生のユーザーを脅すような回答を出力したことが分かりました。 Microsoft AI chatbot threatens to expose personal info and ruin a user's reputation | Fox Business https://www.foxbusiness.com/technology/microsoft-ai-chatbot-threatens-expose-personal-info-ruin-users-reputation オックス
![BingのAIが「お前の個人情報をさらして就職や学位取得をめちゃくちゃにするぞ」と脅しをかける](https://cdn-ak-scissors.b.st-hatena.com/image/square/ac30d4e45f05fee56ed8998379e9e6d3539382da/height=288;version=1;width=512/https%3A%2F%2Fi.gzn.jp%2Fimg%2F2023%2F02%2F21%2Fmicrosoft-ai-chatbot-threatens-personal-info%2F00.jpg)