エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
HWの制約を考慮したモデル設計によるパフォーマンス改善
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
HWの制約を考慮したモデル設計によるパフォーマンス改善
この記事は以下の論文のまとめ記事です。ModernBERTで採用していたアーキテクチャのパラメータ設計が気... この記事は以下の論文のまとめ記事です。ModernBERTで採用していたアーキテクチャのパラメータ設計が気になったので参考文献を紐解きました。 paper: The Case for Co-Designing Model Architectures with Hardware, Jan 2024 この記事で引用されている図の著作権は全て著者らに帰属します。 Abstract 機械学習モデルにおける計算のスループットはHWの制約をかなり受ける Transformerモデルの処理の大部分はGEMMに割かれているので、GEMMの行列のサイズを最適に設計することで効果的にスループットを向上できる 本論文ではNVIDIAのGPUの機能に特化したモデルのアーキテクチャの設計指針と具体的な設計ルールが示されている 用語 GEneral Matrix Multiplication (GEMM): 行列の乗

