
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
深層学習(MLP) 3章 確率的勾配降下法
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure y... Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 3.1. 勾配降下法 誤差関数(2章の復習) 訓練データ $ D = { (x_1, d_1), ... , (x_N, d_N) } $ に対する回帰問題での誤差関数 $$ E(w) = \frac{1}{2} \sum_{n = 1}^{N} ||d_n - y(x_n; w)||^2 $$ $x_i$は入力データ, $d_i$は目標出力データ, $w$はネットワークパラメータ(重みとバイアス), $y$は出力関数 他クラス分類問題での誤差関数 $$ E(w) = - \sum_{n = 1}^{N} \sum_{k = 1}^{K