エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
DeepSpeed Compressionを使ってtask-specific BERTを蒸留してみた - Retrieva TECH BLOG
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
DeepSpeed Compressionを使ってtask-specific BERTを蒸留してみた - Retrieva TECH BLOG
こんにちは。 リサーチャーの勝又です。 私はレトリバで自然言語処理、とくに要約や文法誤り訂正に関す... こんにちは。 リサーチャーの勝又です。 私はレトリバで自然言語処理、とくに要約や文法誤り訂正に関する研究の最新動向の調査・キャッチアップなどを行っております。 ニューラルネットワークモデルの軽量化や推論高速化手法として、蒸留を利用した小さいモデル作成が挙げられます。 今回はtask-specific BERTの蒸留をDeepSpeed Compressionで試してみようと思います。 蒸留を用いたBERTの軽量化とは DeepSpeed Compressionを用いた蒸留 DeepSpeedとは DeepSpeed Compressionを使って蒸留してみる task-specific BERTの用意 DeepSpeedのConfigの作成 蒸留スクリプトの実行 蒸留実験 実験設定 TeacherモデルとStudentモデルの比較 まとめ 蒸留を用いたBERTの軽量化とは 近年、自然言語処