タグ

ブックマーク / hiro2o2.hatenablog.jp (1)

  • Softmaxって何をしてるの? - 画像処理とか機械学習とか

    ニューラルネットワークの出力は例えばニューロンが一つの場合は以下のようになります。 各ノードの出力 まず、それぞれの入力xに重みwを掛け合わせ、全て足します。そして、閾値θを引いた式を、活性化関数に入力した結果が出力yとなります。活性化関数には、様々種類があり古いものではtanhやsigmoid関数などが使われてきました。 しかし、勾配消失問題というニューラルネットワークの層が深くなるにつれて、学習の際に勾配が0に近くなり、低い層で誤差が消失する問題がありました。 この問題に対応するために開発されたのが、ReLU(rectified linear unit)やMaxOutという活性化関数です。これらの手法では誤差消失問題を起こさないため、深い層のネットワークでも学習が可能となり、現在多くのネットワークで採用されています。 Softmaxとは このような活性化関数を通して出力される値は、使用

    Softmaxって何をしてるの? - 画像処理とか機械学習とか
  • 1