エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
「LLMが長文を出力する際の正確さ」を自動評価する手法が誕生
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
「LLMが長文を出力する際の正確さ」を自動評価する手法が誕生
3つの要点 ✔️ 長文の事実性・情報の正確性を評価できるデータセット「LongFact」を作成 ✔️ LLMを使って長... 3つの要点 ✔️ 長文の事実性・情報の正確性を評価できるデータセット「LongFact」を作成 ✔️ LLMを使って長文の事実性を自動評価する手法「SAFE」を提案 ✔️ 長文の事実性を定量化する指標「F1@K」を導入 Long-form factuality in large language models written by Jerry Wei, Chengrun Yang, Xinying Song, Yifeng Lu, Nathan Hu, Jie Huang, Dustin Tran, Daiyi Peng, Ruibo Liu, Da Huang, Cosmo Du, Quoc V. Le (Submitted on 3 Apr 2024) Comments: Published on arxiv. Subjects: Computation and Language (c