エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ニューラルネットワークについて学んでみた。(その4) - いものやま。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ニューラルネットワークについて学んでみた。(その4) - いものやま。
昨日は多層ネットワークの学習方法について説明した。 今日は多層ネットワークの学習で必要になる、勾配... 昨日は多層ネットワークの学習方法について説明した。 今日は多層ネットワークの学習で必要になる、勾配計算について。 勾配の計算 まず、入力 に対する出力 を得るために、次のように入力層から出力層に向かって、各層の出力 を順番に計算していくとする: について、 について、 について、 このとき、この入力に対する誤差の勾配 がどうなるのかを考える。 まず、出力層の重み について偏微分を考えると、 また、出力層のバイアス についての偏微分は、バイアスを入力が常に1である重みであるとみなすと、次のようになる: そして、中間層 の重み について偏微分を考えると、 ここで、 なので、 となることから、 となる。 なお、中間層のバイアス についての偏微分は、出力層のときと同様に考えて、次のようになる: ところで、途中何度も出てくる を デルタ で表すことにする、すなわち、 とすると、これまでの式は、次のよ