ブックマーク / qiita.com/Phoeboooo (1)

  • [最新論文] 新しい最適化手法誕生! AdaBound & AMSBound - Qiita

    論文紹介 画像引用 https://openreview.net/pdf?id=Bkg3g2R9FX https://github.com/Luolc/AdaBound https://www.luolc.com/publications/adabound/ AdaBoundとAMSBound Adamに学習率の上限と下限を動的に加えたものをAdaBound AMSGradに学習率の上限と下限を動的に加えたものをAMSBound どちらの手法も最初はAdamのように動き、後半からSGDのように動く Adamの良さである初期の学習の速さとSGDの良さである汎化能力を両立した最適化手法 Adamの問題点 SGDと比べて汎化性能が劣る・未知のデータに弱い 不安定で極端な学習率を使うため上手く収束しない AMSGrad こういったAdamの問題を解決しようとしてできたのがAMSGrad http:

    [最新論文] 新しい最適化手法誕生! AdaBound & AMSBound - Qiita
    call_me_nots
    call_me_nots 2019/06/18
    “以前にもAdamからSGDへの移り変わりというアイデアはあったが、本研究の移り変わりには良いところが”
  • 1