タグ

ブックマーク / qiita.com/miyamotok0105 (1)

  • 活性化関数のSigmoid、Tangent 、ReLu、Leaky ReLuの違い - Qiita

    これは過去2〜3年で非常に普及しました。最近Tanh関数とのコンバージェンスが 6倍改善されていることが証明されました。 機械学習とコンピュータサイエンスでは、最もシンプルで一貫性のあるテクニックと方法が優先され、最良の方法であることに気付きました。したがって、消失勾配の問題を回避し、修正する。ほとんどすべての深い学習モデルは現在 ReLuを使用しています。 しかし、その限界は、ニューラルネットワークモデルの隠れ層内でのみ使用すべきであるということです。 したがって、出力層では、Classification問題にSoftmax関数を使用してクラスの確率を計算し、回帰問題に対しては単純に線形関数を使用する必要があります。 ReLuのもう1つの問題は、勾配がトレーニング中に壊れやすく、死ぬことがあるということです。それは、いかなるデータポイントでも再び活性化されないようにする、ウエイトの更新を

    活性化関数のSigmoid、Tangent 、ReLu、Leaky ReLuの違い - Qiita
  • 1