本記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 ブレインパッドは、LLM/Generative AIに関する研究プロジェクトを立ち上げ、この「Platinum Data Blog」を通じてLLM/Generative AIに関するさまざまな情報を発信をしています。 今回は、LLMの学習・推論の高速化・効率化をテーマに3つの論文をご紹介します。 目次 今回のテーマ A Survey on Model Compression for Large Language Models 選定理由 論文概要 モデル圧縮の基本的な手法 課題と将来の方向性 レビュー会FB 関連論文 Retentive Network: A Successor to Transformer for Large Language Models 選定理由 論文概要 Transf