AdaGradなんでこんなに悪いんだろう。MGLにはMomentumSGDとAdamが入ってる

masatoimasatoi のブックマーク 2016/04/25 18:56

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

CNNの学習に最高の性能を示す最適化手法はどれか - 俺とプログラミング

    Adam, AdaGrad, AdaDelta, RMSpropGraves, SGD, MomentumSGDなど数ある最適化手法の中で、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の学習には、どのOptimizerをつかうのが最も適してい...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう