タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

RAdamに関するtime_wasterのブックマーク (1)

  • RAdam: Adam の学習係数の分散を考えたOptimizerの論文紹介 - nykergoto’s blog

    表題の通り噂の最適化手法 RAdam の論文 On the Variance of the Adaptive Learning Rate and Beyond を読んだので, そのまとめです!! 概要 一言でいうと「今までヒューリスティックに行っていた Adam 学習開始時の LR 調整を自動化できるような枠組みをつくったよ」ということになると思います. 考える問題 この論文で, 考えていくのは機械学習のように多数のデータから成る目的関数を最小化するような問題です. 特にニューラルネットワークの学習では勾配法, 特に SGD (確率的勾配降下法) と呼ばれる方法を用いることが一般的です. SGD には様々な adaptive バリエーションがあります.この adaptive とは問題の特性を生かして, SGD を早くするような工夫を指しています. 一般的な形式 一般的な adaptive

    RAdam: Adam の学習係数の分散を考えたOptimizerの論文紹介 - nykergoto’s blog
  • 1