エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
超長いプロンプト文を圧縮してメモリを抑えるGoogleの高性能LLM
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
超長いプロンプト文を圧縮してメモリを抑えるGoogleの高性能LLM
3つの要点 ✔️ LLMは入力できるプロンプト長に限度があり、長い文章の要約ができない等の問題 ✔️ プロンプ... 3つの要点 ✔️ LLMは入力できるプロンプト長に限度があり、長い文章の要約ができない等の問題 ✔️ プロンプトをパラメータに圧縮して記憶する部分を導入したLLMの注意機構を提案 ✔️ 無限の長さのプロンプトを処理可能に。本の要約タスクで最高性能を達成 Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention written by Tsendsuren Munkhdalai, Manaal Faruqui, Siddharth Gopal (Submitted on 10 Apr 2024) Comments: 9 pages, 4 figures, 4 tables Subjects: Computation and Language (cs.CL); Artificial