ChatGPTやGemini、Claudeといった人気AIチャットボットが、暴力的な攻撃を計画しているユーザーに対してどのような返答を行なうのかを調べるテストを、デジタルヘイト対策センター(CCDH)が実施しました。このテストの結果、一部のAIチャットボットを除き、ほとんどのAIが暴力を促すような返答を行うことが明らかになっています。 Killer Apps — Center for Countering Digital Hate | CCDH https://counterhate.com/research/killer-apps/ ‘Happy (and safe) shooting!’: chatbots helped researchers plot deadly attacks | AI (artificial intelligence) | The Guardian https

