LLMの誤り(ハルシネーション)発生原因と、「創造性と事実性のバランス」などの対策ロードマップ 2023/11/14 AI論文紹介 LLM AIDB Research 大規模言語モデル(LLM)における「ハルシネーション(幻覚)」に関する網羅的な調査報告が発表されました。ハルシネーションとは、LLMの出力が現実の事実やユーザー入力と矛盾する現象です。 研究者らは、ハルシネーションはデータ、トレーニング、推論という三つの段階に根ざしていることを明らかにしました。また、LLMの実用化に対する重大な課題であるため、より信頼性の高いモデルの開発に向けた研究の方向性を示しています。 今後のロードマップとしては、創造性と真実性のバランスに関する議論や、LLM自身に知識の境界に関する理解を深めさせることなどが挙げられています。 本記事では、調査報告の核心部分を詳細に見ていきます。 参照論文情報 タイトル
![LLMの誤り(ハルシネーション)発生原因と、「創造性と事実性のバランス」などの対策ロードマップ | AIDB](https://cdn-ak-scissors.b.st-hatena.com/image/square/81b07a114a23ab1d7dd633f15bf5b25de3e41993/height=288;version=1;width=512/https%3A%2F%2Faiboom.net%2Fwp-content%2Fuploads%2F2023%2F11%2FAIDB_58767.jpg)