![](https://cdn-ak-scissors.b.st-hatena.com/image/square/7534fca4287b6fbd9c9fa2268d32db4013448e50/height=288;version=1;width=512/https%3A%2F%2Fupload.wikimedia.org%2Fwikipedia%2Fcommons%2F3%2F3a%2FChatGPT_hallucination.png)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント2件
- 注目コメント
- 新着コメント
![ebmgsd1235 ebmgsd1235](https://cdn.profile-image.st-hatena.com/users/ebmgsd1235/profile.png)
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ハルシネーション (人工知能) - Wikipedia
『ニューヨーク・タイムズ』の実在しない記事を要約するChatGPT ハルシネーション (英語: hallucination... 『ニューヨーク・タイムズ』の実在しない記事を要約するChatGPT ハルシネーション (英語: hallucination) とは、人工知能が学習したデータからは正当化できないはずの回答を堂々とする現象である[1]。この語は幻覚を意味する語から取られたもので、人工知能が幻覚を見ているかのように回答することから付けられた[2]。作話 (confabulation)[3] や、妄想 (delusion)[4] などの表現も使われることがある。 概要[編集] 例えば、テスラの収益に関する知識がないチャットボットがハルシネーションに陥ると、もっともらしいと判断したランダムな数字(130.6億ドルのような)を内部的にピックアップして、間違っているにもかかわらずテスラの収益は130.6億ドルだと繰り返すようになる。そしてこのとき、人工知能の内部ではこの数字が自身の創造の産物だということに気付いている兆
2024/03/06 リンク