関連研究 LLMの出力から誤り(ハルシネーション)を減らす新手法『CoVe(Chain-of-Verification)』と実行プロンプト 推論能力をさらに強める戦略『AoT』で、LLMが「直感」に似た能力を示すようになった メタ認知をさせてLLMの能力を上げる手法「メタ認知プロンプティング」 従来の課題と背景 LLMの推論能力の限界 大規模言語モデル(LLM)は、短い質問や単純なタスクに対してはゼロショットで高い性能を発揮しますが、ステップバイステップの推論が必要な長い質問や複雑なタスクに対しては、通常はその性能に限界があります。複数の前提条件や仮定に基づいて論理的に推論する必要がある場合、LLMはしばしば不正確な結論に至ることがあります。 CoTフレームワークの限界と利点 Chain-of-Thought(CoT)フレームワークは、このような複雑な問題に対する一つの解決策として提案され