エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ニューラルネットのメモリ消費を小さくする類の手法 - うどん記
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ニューラルネットのメモリ消費を小さくする類の手法 - うどん記
ちょっと前に論文読んだので備忘録としてメモしておく. 前置き 本格的なニューラルネットはパラメータ... ちょっと前に論文読んだので備忘録としてメモしておく. 前置き 本格的なニューラルネットはパラメータ数が多いのでモデルサイズが大きくなってしまうことが多い http://arxiv.org/pdf/1510.00149v3.pdf によると,"For example, the AlexNet Caffemodel is over 200MB, and the VGG-16 Caffemodel is over 500MB (BVLC)." このようなモデルでも普通のマシンで動かす場合には(GPUのメモリを使い切らない限り)問題にならないことも多いが,モバイル端末などメモリ容量が制限されたハードウェア上で動かしたい場合には問題になる. これをなんとかする論文をいくつか読んだ. Deep Learning with Limited Numerical Precision (ICML2015) 普