幻覚(ハルシネーション)は、人工知能(AI)が不正確な情報をまるで真実であるかのように生成、提示する現象を指す。特に「LLM」(大規模言語モデル)においては、ハルシネーションの発生頻度を下げたり、その影響を最小限に抑えたりするためのさまざまな方法が検討されている。どのような方法がハルシネーションの抑制に効果があるのか。 ハルシネーションの発生を防ぐには? ハルシネーションの例として以下の回答が挙げられる。 ・不正確な情報:「米国の首都はロンドン」といった、明らかに事実と異なる情報 ・矛盾した情報:「ジョンは67歳のティーンエイジャー」という、67歳という数値と「ティーンエイジャー」という単語の意味のつながりがなく、論理が破綻している情報 ・質問と回答が一致していない情報:クッキーのレシピ案を問う質問に対して、最寄りのスーパーへの道案内を回答とする情報。 ハルシネーションは、金融分析や安全性
