『ニューヨーク・タイムズ』の実在しない記事を要約するChatGPT ハルシネーション (英語: hallucination) とは、人工知能が学習したデータからは正当化できないはずの回答を堂々とする現象である[1]。この語は幻覚を意味する語から取られたもので、人工知能が幻覚を見ているかのように回答することから付けられた[2]。作話 (confabulation)[3] や、妄想 (delusion)[4] などの表現も使われることがある。 概要[編集] 例えば、テスラの収益に関する知識がないチャットボットがハルシネーションに陥ると、もっともらしいと判断したランダムな数字(130.6億ドルのような)を内部的にピックアップして、間違っているにもかかわらずテスラの収益は130.6億ドルだと繰り返すようになる。そしてこのとき、人工知能の内部ではこの数字が自身の創造の産物だということに気付いている兆