エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
深層学習入門 ~逆伝播編~ - Qiita
def backward(self, grad): """ 逆伝播の実装 """ dact = grad*self.act.backward(self.x, self.y) self... def backward(self, grad): """ 逆伝播の実装 """ dact = grad*self.act.backward(self.x, self.y) self.grad_w = dact*self.x self.grad_b = dact self.grad_x = dact*self.w return self.grad_x 中間層はこのままでOKですが、出力層については処理を一部追加する必要がありますね。 後ほど触れます。 行列での逆伝播 続いて行列での逆伝播を考えてみましょう。こちらは非常に数式が多く大変ですが、きちんと追いかけてみるとわかるはずです。 先ほどと同じように数式に色を振って、ぱっと見でわかるようにしようと思います。気が重い... 行列での逆伝播理論 以下の計算グラフを考えます。 順伝播で使ったものと同じですね。2ニューロンしかないレイヤーモデルで