タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

機械学習とneuroに関するslay-tのブックマーク (1)

  • [最新論文] 新しい最適化手法誕生! AdaBound & AMSBound - Qiita

    論文紹介 画像引用 https://openreview.net/pdf?id=Bkg3g2R9FX https://github.com/Luolc/AdaBound https://www.luolc.com/publications/adabound/ AdaBoundとAMSBound Adamに学習率の上限と下限を動的に加えたものをAdaBound AMSGradに学習率の上限と下限を動的に加えたものをAMSBound どちらの手法も最初はAdamのように動き、後半からSGDのように動く Adamの良さである初期の学習の速さとSGDの良さである汎化能力を両立した最適化手法 Adamの問題点 SGDと比べて汎化性能が劣る・未知のデータに弱い 不安定で極端な学習率を使うため上手く収束しない AMSGrad こういったAdamの問題を解決しようとしてできたのがAMSGrad http:

    [最新論文] 新しい最適化手法誕生! AdaBound & AMSBound - Qiita
  • 1