大規模言語モデル(LLM)ベースの生成AI(人工知能)を企業が活用する際の大きな課題は、AIがでたらめを述べる「ハルシネーション(幻覚)」だ。自社の商品サービスを顧客に説明するAIがハルシネーションを起こしたら、企業の評価を毀損する恐れすらある。 「ハルシネーションの解決策としてグラウンディング(Grounding)がある」。グーグル・クラウド・ジャパンが2023年8月22日に開催した生成AIに関するイベント「Generative AI Summit」で、同社の牧允皓氏はこう語った。 ここで言うグラウンディングとは、AIを活用する側が指定した情報源だけに基づいて、LLMに回答を生成させることを指す。LLMは事前に学習した大量の訓練データから得た情報に基づいて文章を生成するが、ここでは事前学習した情報は使わせない。生成した文章の情報がどのデータに基づくのか追跡できるようにもする。 Googl
![生成AIの「幻覚」防ぐグラウンディング、ハルシネーションの解決策をひもとく](https://cdn-ak-scissors.b.st-hatena.com/image/square/4b75fd9fda7d1c797458cf02ad6dc3405aa8adeb/height=288;version=1;width=512/https%3A%2F%2Fxtech.nikkei.com%2Fatcl%2Fnxt%2Fcolumn%2F18%2F00692%2F082900114%2Fsns_gafa.jpg%3F20220512)