タグ

2018年2月13日のブックマーク (3件)

  • 活性化関数のSigmoid、Tangent 、ReLu、Leaky ReLuの違い - Qiita

    これは過去2〜3年で非常に普及しました。最近Tanh関数とのコンバージェンスが 6倍改善されていることが証明されました。 機械学習とコンピュータサイエンスでは、最もシンプルで一貫性のあるテクニックと方法が優先され、最良の方法であることに気付きました。したがって、消失勾配の問題を回避し、修正する。ほとんどすべての深い学習モデルは現在 ReLuを使用しています。 しかし、その限界は、ニューラルネットワークモデルの隠れ層内でのみ使用すべきであるということです。 したがって、出力層では、Classification問題にSoftmax関数を使用してクラスの確率を計算し、回帰問題に対しては単純に線形関数を使用する必要があります。 ReLuのもう1つの問題は、勾配がトレーニング中に壊れやすく、死ぬことがあるということです。それは、いかなるデータポイントでも再び活性化されないようにする、ウエイトの更新を

    活性化関数のSigmoid、Tangent 、ReLu、Leaky ReLuの違い - Qiita
  • kerasでmultiple (複数の) 入力 / 出力 / 損失関数を扱う時のTipsをまとめる - St_Hakky’s blog

    こんにちは。 〇この記事のモチベーション Deep Learningで自分でモデルとかを作ろうとすると、複数の入力や出力、そして損失関数を取扱たくなる時期が必ず来ると思います。 最近では、GoogleNetとかは中間層の途中で出力を出していたりするので、そういうのでも普通に遭遇します。 というわけで私も例に漏れず遭遇しました笑。 今回はkerasで複数の入力や出力、そして損失関数を取り扱うときにどうすればいいかについて実践したのでまとめておきます。 〇「複数の入力」を与えたい場合 これは簡単です。普段Modelのインスタンスを作る際に、inputsとoutputsを指定すると思いますが、その際に複数ある場合はリスト形式で渡せばいいだけです。 input_layer1 = Input(shape=(32,)) input_layer2 = Input(shape=(64,)) # ...(モ

    kerasでmultiple (複数の) 入力 / 出力 / 損失関数を扱う時のTipsをまとめる - St_Hakky’s blog
  • 勾配法は本当に鞍点近傍にはまるのか?モース理論で考えてみる - Qiita

    TL;DR 勾配法はほとんどのケースで極小点に収束する(鞍点には収束しない) この事実は力学系や最適化の分野ではよく知られているが,機械学習では新しい? 数年前にバズった勾配法の比較動画は実際の学習現象を説明できていないかも 鞍点の近傍での振舞いで差がつく? いや,そもそも鞍点近傍に流れ込まないかも 比較動画に登場した鞍点は,実際にはまず生じないタイプかも 機械学習にも役立つモース理論 ほとんどすべての関数はモース関数 モース関数の臨界点のタイプはわずか $d+1$ 種類($d$ は定義域次元) 安定/不安定多様体とモース・スメール複体で勾配法の流れは分かる Monkey saddleはまず現れない(もし現れても簡単に消せる) 量的な問題に関しては,結局は実験するしかない この記事を書いたきっかけ 昨夜,ある論文を見かけて,ふとこんなツイートをした. ML業界,「勾配法が鞍点に収束する確率

    勾配法は本当に鞍点近傍にはまるのか?モース理論で考えてみる - Qiita