Deep LearningにおけるBatch Normalizationの理解メモと、実際にその効果を見てみるPython機械学習DeepLearningTensorFlowBatchNormalization はじめに 前回、こういう記事をかきました Deep LearningにおけるDropoutの理解メモと、実際にどう効いているのか見てみる 引き続き https://deeplearningbook.org を読んでおり、上記記事でも少し紹介したBatch Normalizationが8章で出てきました。 Dropoutの節では、「Batch Normalizationが超強いからDropoutいらないこともあるよ」とまで言われるレベルのパワーとのこと。一体どんなものなのか 本記事では自身の学習のアウトプットとして、簡単な理解のまとめと、TensorFlowでの実装の説明、cifar