はじめに# Vgg16 モデルによる転移学習で、kaggle で結構いい成績がでているので、 転移学習すごくない?と思っている今日この頃。 Vgg16 モデルを使って、kaggle の MNIST コンペ に挑戦したらどうなるだろうと思っていろいろ試してみた。 結論からいうと、無謀な挑戦で挫折したのだけれども、得たことをまとめて置く。 Vgg16 モデルには、Batch Normalization が使われていない# Batch Normalization は、overfitting を防ぎ、学習をスピードアップさせるよい方法なのだが、 Vgg16 モデルには、Batch Normalization が使われていない。 なぜか?それは、VGG16 モデルができたとき、Batch Normalization は存在しなかったから。 Lesson 5 Notes - Deep Learning
![Vgg16 モデルに Batch Normalization を組み込む技](https://cdn-ak-scissors.b.st-hatena.com/image/square/3c0910ee3a5035bb91a302e843c000ed3c44e353/height=288;version=1;width=512/https%3A%2F%2Ffuturismo.biz%2Ffuturismo.jpg)