「あなたは〇〇の専門家です」という一文から大規模言語モデルへの指示を書き始めるユーザーは非常に多い。この手法は長らく、人工知能から高品質で精緻な回答を引き出すための代表的なテクニックとして、数多くのガイドブックで推奨されてきた。専門家としての役割を与えることで、出力のトーンが劇的に洗練されるという感覚は、生成AIを日常的に利用する多くの人々が共有しているはずだ。 しかし、南カリフォルニア大学の研究チームが発表した最新の論文は、この広く信じられてきた常識に対して極めて鋭いメスを入れている。人工知能に専門家として振る舞うよう指示すると、モデルが元々保持している知識の正確性が著しく損なわれる場合があるというのだ。 言語モデルの脳内で起きている知識と演技の衝突 なぜ専門家という設定が人工知能の精度を落とすのかを理解するためには、大規模言語モデルがどのように知識を獲得し、どのようにユーザーの指示に従

