
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ゼロから作るDeepLearning① 6章「学習に関するテクニック」 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ゼロから作るDeepLearning① 6章「学習に関するテクニック」 - Qiita
ゼロから作るDeepLearning①の6章でいい感じの実装ができたので、備忘録。 Jupyterも公開するので、間違... ゼロから作るDeepLearning①の6章でいい感じの実装ができたので、備忘録。 Jupyterも公開するので、間違っていればご指摘いただけると幸いです。 書籍ではデータセットをローカルにダウンロードしていましたが、せっかくsklearnにmnistなどの学習用のデータセットがあるので、sklearnからimportするだけで済むように、コードを調整しました。 jupyter notebook公開用@github SGD(Stochastic Gradient Descent:確率的勾配降下法) 損失関数の勾配に一定の学習係数をかけた値を重みから差し引くことで、各ネットワークの重みを調整する方法。式として表すと W(調整後の重み) = W(調整前の重み) - η * dL/dW(学習係数*損失関数の勾配) AdaGrad法 学習の進み具合によって学習係数を小さくしていき、各ネットワークの