大規模言語モデルが「ハルシネーション(幻覚)」を生成することはよく知られている。ただ、その仕組みから明らかのように、LLMの出力は本質的にはすべてハルシネーションであり、間違いが発覚したものがそう呼ばれているだけだ。 by Will Douglas Heaven2024.06.24 58 25 この記事の3つのポイント チャットボットは間違った情報を提供することがある 大規模言語モデルは統計的確率に基づいてテキストを生成する ハルシネーションを完全に防ぐことは不可能である summarized by Claude 3 2024年4月2日、世界保健機関(WHO)の新しいチャットボットが「善意の意図」の下にリリースされた。 リリースされたのは、「GPT-3.5」が搭載された新顔のバーチャル・アバター「サラ(SARAH:Smart AI Resource Assistant for Health
![解説:生成AIのハルシネーションはなぜ起きるのか](https://cdn-ak-scissors.b.st-hatena.com/image/square/32214f7f7445dea47530bc5a0f1d26e81ce324ed/height=288;version=1;width=512/https%3A%2F%2Fcdn.technologyreview.jp%2Fwp-content%2Fuploads%2Fsites%2F2%2F2024%2F06%2F18171504%2FComp-13YS-1400x787.jpg)