![](https://cdn-ak-scissors.b.st-hatena.com/image/square/0d1f265e1e6e6509197179d9039bad4d166794c8/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9JUU4JUFDJTlCJUU4JUFCJTg3JUU3JUE0JUJFJUU2JUE5JTlGJUU2JUEyJUIwJUU1JUFEJUE2JUU3JUJGJTkyJUUzJTgzJTk3JUUzJTgzJUFEJUUzJTgzJTk1JUUzJTgyJUE3JUUzJTgzJTgzJUUzJTgyJUI3JUUzJTgzJUE3JUUzJTgzJThBJUUzJTgzJUFCJUUzJTgyJUI3JUUzJTgzJUFBJUUzJTgzJUJDJUUzJTgyJUJBJUUzJTgwJThFJUU2JUI3JUIxJUU1JUIxJUE0JUU1JUFEJUE2JUU3JUJGJTkyJUUzJTgwJThGJUUzJTgxJUFFJUU1JUFEJUE2JUU3JUJGJTkyJTIwJUU3JUFDJUFDMyVFNyVBQiVBMCUyMCVFNyVBMiVCQSVFNyU4RSU4NyVFNyU5QSU4NCVFNSU4QiVCRSVFOSU4NSU4RCVFOSU5OSU4RCVFNCVCOCU4QiVFNiVCMyU5NSZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZ0eHQtY29sb3I9JTIzMjEyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTU2JnM9ZTNiY2ZmMTQ4NWRmM2VjZWM1MWViYTZhOWE4MDdiN2M%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBhb2tpa2VuaWNoaSZ0eHQtY29sb3I9JTIzMjEyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTM2JnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnM9ZjY5OWI4ZGFkNzU1MjU1YjEyOTQxYzEyMjhkMjM0YzQ%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3Dc8303ada8b60ef167e3f6803c70480c5)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
講談社機械学習プロフェッショナルシリーズ『深層学習』の学習 第3章 確率的勾配降下法 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
講談社機械学習プロフェッショナルシリーズ『深層学習』の学習 第3章 確率的勾配降下法 - Qiita
であれば、(実数の範囲では)0。 p24 「E(w)は一般的に凸関数ではなく、大域的な最小解を直接得るのは... であれば、(実数の範囲では)0。 p24 「E(w)は一般的に凸関数ではなく、大域的な最小解を直接得るのは通常、不可能です」 凸関数であれば局所的な最小値が大域的な最小値と一致するので、最小値を求めるような最適化問題が簡単になる。c.f. Wikipedia:凸最適化 p24 ∇、∂ \nabla=(\frac{\partial{}}{\partial{x_1}}, \frac{\partial{}}{\partial{x_2}}, \frac{\partial{}}{\partial{x_3}}, ..., \frac{\partial{}}{\partial{x_n}}) \\ \nabla はナブラと呼び、複数の変数がある場合それぞれの変数で偏微分を行う。 \\ \partial はラウンドディーと呼び、偏微分を行う。偏微分とは、対象となる変数以外を定数とみなして、対象となる変数のみ