タグ

誤差逆伝播法に関するsimakawaのブックマーク (3)

  • 誤差逆伝播法をはじめからていねいに - Qiita

    はじめに この記事は、私が機械学習、特に「誤差逆伝播法」 (あるいは「バックプロパゲーション (Backpropagation)」) を勉強するうえで辿った道筋を記録しておくものです。 誤差逆伝播法に関する分かりやすい解説は、ここ Qiita にも多数存在しますので、正直 $n$ 番煎じなところがありますが、あくまで記録ですのでここは 1 つ。 「記録」というには長過ぎてイマイチ感溢れてますが、そこは気にしないでください。これでも要点をしぼったつもりなのです… ゆっくりしていってね!!! 途中の数式について 記事の前後から参照されている数式については右側に番号を振っています。 初回記載時は $\text{(1)}$ とかっこ付き数字で、2 回目以降記載時は $\text{[1]}$ と角かっこ付き数字で示します。記載済みの数式を変形したものについては $\text{(1')}$ とプライム

    誤差逆伝播法をはじめからていねいに - Qiita
  • 誤差逆伝播法を宇宙一わかりやすく解説してみる

    さて,クリスマスですね.各分野で行われているアドベントカレンダーも最終日です. 恐縮ながら,最も購読者数の多い,機械学習に必要な高校数学やり直しアドベントカレンダー Advent Calendar 2016を締めくくらせていただこうと思います. ラストに相応しい記事として,機械学習に必要な高校数学をやり直した後で ニューラルネットワークの学習手順を理解してみようという内容にしてみました 実際に高校生に教えてみて理解してきただけた内容なので,1つ1つみていけば決して難しくないはずです. また,これは前回の記事の前提知識が必要となります. 今回はかなり噛み砕いて説明を行なっています.そのため,専門に機械学習を学ばれてる方からすると違和感を感じる表現があるかもしれません,ご了承ください. 私が教えた高校生のスペック 「高校生に教えてみた」という記事ですが,どのレベルの高校生かをはじめに明確にして

    誤差逆伝播法を宇宙一わかりやすく解説してみる
  • 高卒でもわかる機械学習 (5) 誤差逆伝播法 その1

    はじめに 多層パーセプトロンの重みを更新する理論について解説します。 更新すべき重みがたくさんあるので単純パーセプトロンより難しいですが、ここがわかると近年流行したディープラーニングを理解するための基ができあがります。 ただし、結構長いので、「理論はざっくりでいいから最終的に使える重み更新式が知りたい」という人は、別のサイトやを読むのをお勧めします。 なお、記事中で使われる各種記号の定義は前回やりましたので、わからなくなったらそちらを参照してください。 数学の前知識 今回は数式がけっこう出てきます。 そこで必要な数学知識について、いくつか説明を書いておきます。 簡単のため前提条件を少し省略しているので、数学的に厳密ではない箇所はご容赦ください。 偏微分 偏微分は以前の記事でも出てきましたが、僕が誤解してまして、高校数学の範囲には含まれていないようでした。 そんなに難しいことではなく、複

    高卒でもわかる機械学習 (5) 誤差逆伝播法 その1
  • 1