エントリーの編集
                エントリーの編集は全ユーザーに共通の機能です。
                    必ずガイドラインを一読の上ご利用ください。
ゼロから作るDeep Learningで素人がつまずいたことメモ:5章 - Qiita
記事へのコメント0件
- 注目コメント
 - 新着コメント
 
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
          - バナー広告なし
 - ミュート機能あり
 - ダークモード搭載
 
関連記事
ゼロから作るDeep Learningで素人がつまずいたことメモ:5章 - Qiita
5章 誤差逆伝播法 この章は、ニューラルネットワークの学習において重みパラメーターの算出を高速化する... 5章 誤差逆伝播法 この章は、ニューラルネットワークの学習において重みパラメーターの算出を高速化するための、誤差逆伝播法についての説明です。 ちなみにこの「伝播」(でんぱ)という言葉はPropagetionの訳なのですが、「伝搬」(でんぱん)と訳されることもあって日本語は混沌としています。この辺りを調べたブログの記事を見つけましたので、興味のある方は 歩いたら休め > 【機械学習】"Propagation"の訳は「伝播」or「伝搬」? をどうぞ。 5.1 計算グラフ 計算グラフによる説明は、誤差逆伝播法を学ぶ上で非常に分かりやすいです。この本の人気の秘密は、この5章なのかも知れません。 ニューラルネットでは学習が必須で、そのためには重みパラメーターの勾配を求める必要があり、各パラメーターの微分の計算が必要になります。計算グラフを利用すると、その微分の計算が、後ろから前へ向かって局所的な微分
              
            

