タグ

誤差逆伝播に関するyoyamaのブックマーク (3)

  • ニューラルネットワークの順伝播,逆伝播,確率的勾配降下法を手計算する - Qiita

    この記事は何? ニューラルネットワークの理解が曖昧な部分があったので,実際にニューラルネットワークの動きを手計算して確かめた時のメモです. ニューラルネットワークの構造 下のような図で表される,小さめの構造のニューラルネットワークの動きを手計算で確かめてみようと思います. 入力層ユニット数は3,隠れ層ユニット数は2,出力層ユニット数は2とします. 隠れ層の活性化関数$h$はシグモイド関数$h(a)=\frac{1}{1+\exp(-a)}$を用います. 出力層の活性化関数$o$は恒等関数$o(a)=a$を用います. 重みの初期値は以下のように設定します. W^{(1)}=\begin{bmatrix} w_{11}^{(1)}&w_{12}^{(1)}&w_{13}^{(1)}\\ w_{21}^{(1)}&w_{22}^{(1)}&w_{23}^{(1)} \end{bmatrix} =

    ニューラルネットワークの順伝播,逆伝播,確率的勾配降下法を手計算する - Qiita
  • 誤差逆伝播法のノート - Qiita

    はじめに ※)「目標関数」をより一般的な名称である「損失関数(Loss Function)」表記に改めました.(2015Oct19) 誤差逆伝播法(以下,Backprop)は多層パーセプトロンを使う人にとってお馴染みのアルゴリズムですよね. いや,これだけ有名なアルゴリズムなのでちょっとネットで探してみれば沢山解説を見つけることが出来るのですが,Backpropを予測誤差の最小化に適用する場合の説明しかみつからないんです.(とはいえ,PRMLをちゃんと読めば全部載ってるんですが). Backpropでできることは何なのか? ということがあまり明らかではありませんでした. 大学の講義や教科書でのBackpropの説明はほとんど,「教師あり学習の文脈で多層パーセプトロンを識別器あるいは関数近似器として訓練する」という文脈でなされます.そのため,初学者はBackpropは教師あり学習のためのアル

    誤差逆伝播法のノート - Qiita
  • 高卒でもわかる機械学習 (4) 誤差逆伝播法の前置き

    前回からだいぶ時間が空いてしまいました。 誰も見てないものかと… 多層パーセプトロンの学習法として使われる誤差逆伝播法について書いていきますが、この記事シリーズのルール「長いけど平易」を守るとけっこうな長さになったので、分割して掲載します。 今回は一言で言えば誤差逆伝播法の理論で使う記号の定義をするだけです。 しかし僕のような数式に慣れていない人間にとっては、実はここが一番の難関かも知れないとすら思っているので、腰をすえてじっくりやろうと思います。 正念場です。 活性化関数 先にこの項のまとめを書いておくとこうです。 多層パーセプトロンの活性化関数は微分できることが重要 有効な活性化関数にはいろいろある ひとまずこの記事では活性化関数を 、その導関数を と一般化して記述する それだけなのですが、せっかくなのでそのあたりの現状に軽く触れておこうと思います。 活性化関数とは、ユニットの出力値を

    高卒でもわかる機械学習 (4) 誤差逆伝播法の前置き
  • 1