タグ

ニューラルネットワーに関するmakun2のブックマーク (5)

  • softmax関数を直感的に理解したい - Qiita

    はじめに 最近ディープラーニングが盛り上がっていますね。その中でもディープラーニングをはじめとする機械学習に出てくるようなを読んでいるとよく出てくるsoftmax関数 があります。最近を読んでいたらこいつが登場し、そろそろちゃんと理解しようと思ったのでその考察をシェアします。 題 結論からいうと、softmax関数を3Dグラフにプロットするとこうなります。 (実際、この結果が見たくてググったがなかなかヒットせず) これは$x_1, x_2$の値がともに$[-5, 5]$である状況で$i=2$に関するsoftmax関数 の挙動をプロットしたものになります。このグラフを観察するとわかることが2点あります。これから個別に見ていきます。 値域(関数の取りうる値)が0から1の間である これがよくsoftmax関数の利点として挙げられていることです。もちろん数学的に示すことも可能です。この点では

    softmax関数を直感的に理解したい - Qiita
  • Softmaxって何をしてるの? - 画像処理とか機械学習とか

    ニューラルネットワークの出力は例えばニューロンが一つの場合は以下のようになります。 各ノードの出力 まず、それぞれの入力xに重みwを掛け合わせ、全て足します。そして、閾値θを引いた式を、活性化関数に入力した結果が出力yとなります。活性化関数には、様々種類があり古いものではtanhやsigmoid関数などが使われてきました。 しかし、勾配消失問題というニューラルネットワークの層が深くなるにつれて、学習の際に勾配が0に近くなり、低い層で誤差が消失する問題がありました。 この問題に対応するために開発されたのが、ReLU(rectified linear unit)やMaxOutという活性化関数です。これらの手法では誤差消失問題を起こさないため、深い層のネットワークでも学習が可能となり、現在多くのネットワークで採用されています。 Softmaxとは このような活性化関数を通して出力される値は、使用

    Softmaxって何をしてるの? - 画像処理とか機械学習とか
  • http://diginnos-server.kim.cis.iwate-u.ac.jp/iwate-u-only/%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD13.pdf

  • 誤差逆伝播法をはじめからていねいに - Qiita

    はじめに この記事は、私が機械学習、特に「誤差逆伝播法」 (あるいは「バックプロパゲーション (Backpropagation)」) を勉強するうえで辿った道筋を記録しておくものです。 誤差逆伝播法に関する分かりやすい解説は、ここ Qiita にも多数存在しますので、正直 $n$ 番煎じなところがありますが、あくまで記録ですのでここは 1 つ。 「記録」というには長過ぎてイマイチ感溢れてますが、そこは気にしないでください。これでも要点をしぼったつもりなのです… ゆっくりしていってね!!! 途中の数式について 記事の前後から参照されている数式については右側に番号を振っています。 初回記載時は $\text{(1)}$ とかっこ付き数字で、2 回目以降記載時は $\text{[1]}$ と角かっこ付き数字で示します。記載済みの数式を変形したものについては $\text{(1')}$ とプライム

    誤差逆伝播法をはじめからていねいに - Qiita
  • 畳み込みニューラルネットワークの仕組み | POSTD

    (編注:2016/11/17、記事を修正いたしました。) ディープラーニングの分野でテクノロジの進化が続いているということが話題になる場合、十中八九畳み込みニューラルネットワークが関係しています。畳み込みニューラルネットワークはCNN(Convolutional Neural Network)またはConvNetとも呼ばれ、ディープニューラルネットワークの分野の主力となっています。CNNは画像を複数のカテゴリに分類するよう学習しており、その分類能力は人間を上回ることもあります。大言壮語のうたい文句を実現している方法が当にあるとすれば、それはCNNでしょう。 CNNの非常に大きな長所として、理解しやすいことが挙げられます。少なくとも幾つかの基的な部分にブレークダウンして学べば、それを実感できるでしょう。というわけで、これから一通り説明します。また、画像処理についてこの記事よりも詳細に説明

    畳み込みニューラルネットワークの仕組み | POSTD
  • 1