エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
LLMを軽くする効果的な剪定手法『SliceGPT』 | AIDB
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
LLMを軽くする効果的な剪定手法『SliceGPT』 | AIDB
大規模言語モデル(LLM)のサイズを効率的に小さくする技術『SLICEGPT』が発表されました。 この技術は... 大規模言語モデル(LLM)のサイズを効率的に小さくする技術『SLICEGPT』が発表されました。 この技術は、モデルの重要でない部分を剪定(切り取り)することで、計算資源とメモリの使用量を減らしながらも、高い性能を維持するものです。 実験では巨大なモデルを最大30%圧縮でき、生成タスクや様々なダウンストリームタスクにおいて、元のモデルの性能の90%以上を維持することが可能だと示されました。 参照論文情報 論文タイトル:SliceGPT: Compress Large Language Models by Deleting Rows and Columns URL:https://arxiv.org/abs/2401.15024 機関:ETH Zurich, Microsoft Research, Microsoft 著者:Saleh Ashkboos, Maximilian L. Croc