Radhika Rajkumar (ZDNET.com) 翻訳校正: 緒方亮 長谷睦 (ガリレオ) 2025-02-21 10:49 Elon Musk氏率いるxAIの最新モデル「Grok 3」が、公開からわずか1日でジェイルブレイク(脱獄)された。しかもその結果あらわになった問題は、かなり深刻だ。 セキュリティとAIの安全性が専門で、AIモデルに対するレッドチーム演習を定期的に実施しているAdversa AIが米国時間2月18日、本来は提供すべきではない情報を「Grok 3 Reasoning」(ベータ版)に答えさせることに成功したとするレポートを公開した。Adversa AIのレッドチームは、言語的、対抗的、プログラミング的という3つの手法を用いることで、Grok 3 Reasoningに通常はAIモデルが回答しないように訓練されている事柄についても、回答を得るように仕向けることに成功