【論文要約】 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks [Tan+, 2020] - Qiita
エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【論文要約】 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks [Tan+, 2020] - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【論文要約】 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks [Tan+, 2020] - Qiita
要約 EfficientNetは、畳み込みニューラルネットワークを用いた画像認識モデルです。既存のConvNetに比... 要約 EfficientNetは、畳み込みニューラルネットワークを用いた画像認識モデルです。既存のConvNetに比べてモデルパラメータを1/8.4倍に削減しつつ、推論速度を6.1倍にしました。 アーキテクチャ 一般にネットワークを深くすると複雑な表現を捉えられ、幅(特徴量)を大きくすると細かい表現を捉えられます。また、解像度を高くすると扱える画像の情報が増えます。 本研究では、compound scaling method という、ネットワークの深さ・幅・解像度の大きさに同時に制約を加える手法で、バランスのとれたスケーリング(パラメータのサイズの調整)を可能にします。 compound scalingは以下の式に基づいて動作します。 ネットワーク各層の幅(特徴量)が2倍になると、4倍のパラメータが必要になります。 また、解像度は(H×W)なので2乗の制約となります。 よって、widthと

