サクサク読めて、アプリ限定の機能も多数!
フィッシャー情報行列の逆行列を前処理行列として使う自然勾配降下法は最適化法として有望だったが計算量が大きすぎる問題があった。提案手法のTANGOは単純な更新則で学習率が0に近づくにつれ自然勾配法と一致する。 h
elu_18 のブックマーク 2018/08/29 13:28
True Asymptotic Natural Gradient Optimization[fromTw] フィッシャー情報行列の逆行列を前処理行列として使う自然勾配降下法は最適化法として有望だったが計算量が大きすぎる問題があった。提案手法のTANGOは単純な更新則で学習率が0に近づくにつれ自然勾配法と一致する。 h2018/08/29 13:28
このブックマークにはスターがありません。 最初のスターをつけてみよう!
arxiv.org2018/08/29
We introduce a simple algorithm, True Asymptotic Natural Gradient Optimization (TANGO), that converges to a true natural gradient descent in the limit of small learning rates, without explicit Fish...
2 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /
フィッシャー情報行列の逆行列を前処理行列として使う自然勾配降下法は最適化法として有望だったが計算量が大きすぎる問題があった。提案手法のTANGOは単純な更新則で学習率が0に近づくにつれ自然勾配法と一致する。 h
elu_18 のブックマーク 2018/08/29 13:28
このブックマークにはスターがありません。
最初のスターをつけてみよう!
True Asymptotic Natural Gradient Optimization
arxiv.org2018/08/29
We introduce a simple algorithm, True Asymptotic Natural Gradient Optimization (TANGO), that converges to a true natural gradient descent in the limit of small learning rates, without explicit Fish...
2 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /