人工知能(AI)モデルは進化しており、驚くようなこともできるようになった。しかし、それでもミスをしたり誤った答えを出したりすることがあり、これは「ハルシネーション」(幻覚:AIが事実と異なる情報を勝手に作り出してしまう現象)と呼ばれる。 OpenAIの「ChatGPT」やGoogleの「Bard」といった主要なAIチャットボットはいずれも、こうしたハルシネーションを起こしやすい。OpenAIとGoogleはどちらも、自社のチャットボットが誤った情報を生成する可能性があると明言までしている。 OpenAIは新たな研究論文に関する投稿記事の中で、AIモデルをより論理的に動作させてハルシネーションを回避する方法を発見したかもしれないと述べている。 同社は、複雑な数学の問題を解く能力を備えたモデルを「プロセス監視」で学習させた。プロセス監視とは、1つのステップごとにフィードバックを提供する手法だ。
![OpenAI、AIモデルの「幻覚」を軽減する手法を報告](https://cdn-ak-scissors.b.st-hatena.com/image/square/63fa7566261bab72a080bbee03e07766d08664c4/height=288;version=1;width=512/https%3A%2F%2Fjapan.cnet.com%2Fstorage%2F2023%2F06%2F02%2Fa5ca3df7e1027daec2ba3571059106ff%2Fgettyimages-1460653515_1280x960.jpg)