タグ

ブックマーク / tyfkda.github.io (1)

  • MNISTにバッチ正規化を適用

    多層ニューラルネットでBatch Normalizationの検証 - Qiitaでクォートされていた、 バッチ正規化使ってないなら人生損してるで If you aren’t using batch normalization you should というのを見て初めてニューラルネットワークでのバッチ正規化というものを知った。 なんか使うだけでいいことずくめらしいので調べてみた。 イントロ論文はBatch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shiftにある。 中身はよく理解してないけど、学習時のミニバッチごとに、各レイヤーの各要素ごとに正規化して学習させることで内部共変量シフト(Internal Covariate Shift)を減らすことができて、それによって学

    y034112
    y034112 2018/02/08
    batch normarization
  • 1