前回紹介した「きゅうりの自動選別機」の撮影台を使って順調に画像データを集めている途中ですが、並行してTensorFlowでの学習もやり始めたところです。 さて、学習を始めるに当たり、Batch Normalizationという早く学習を進める手法があるということで試してみました。 Batch Normalizationとは、ミニバッチごとに平均が0,分散が1になるように正規化を行う手法で、 ・学習が早く進む ・初期値依存性を軽減できる といった利点があるそうです。 詳しくは、論文が公開されています。 (batch normalizationで検索するとトップに出てくると思います) また、詳しく解説してくださっている下記ブログがとても参考になりました。 Qiita – [Survey]Batch Normalization: Accelerating Deep Network Trainin
![【CCB9】TensorFlowでBatch Normalizationを試してみる | Workpiles](https://cdn-ak-scissors.b.st-hatena.com/image/square/8a41f8f6ab204280e9ae8743e0552ed4f6b09f82/height=288;version=1;width=512/http%3A%2F%2Fworkpiles.com%2Fwordpress%2Fwp-content%2Fuploads%2F2016%2F06%2Fccb9_with_bn.jpg)