エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
人工知能:大規模言語モデルのハルシネーションを検出する | Nature | Nature Portfolio
大規模言語モデル(LLM)によって生成された応答の意味の不確実性を測定してLLMのハルシネーションを検... 大規模言語モデル(LLM)によって生成された応答の意味の不確実性を測定してLLMのハルシネーションを検出するという方法について報告する論文が、今週、Natureに掲載される。この方法は、LLMの出力の信頼性を高めるために使用できるかもしれない。 LLM(ChatGPT、Geminiなど)は、人間の言語を読み取って自然な言語を生成する人工知能システムだ。しかし、こうしたシステムは、生成されたコンテンツが不正確であったり、意味をなさなかったりする「ハルシネーション」が起こりやすい。LLMがどの程度ハルシネーションを起こす可能性があるかを検出することは難しい課題となっている。LLMの応答の提示のされ方によっては、もっともらしく見えることがあるためだ。 今回、Sebastian Farquharらは、LLMによって生成されるハルシネーションの程度を定量化して、LLMが生成する内容が正確である可能性
2024/06/21 リンク