タグ

activation-functionに関するnabinnoのブックマーク (9)

  • Keras documentation: Layer activation functions

    Layer activation functions Usage of activations Activations can either be used through an Activation layer, or through the activation argument supported by all forward layers:

    Keras documentation: Layer activation functions
  • 活性化関数 - Keras Documentation

  • ソフトマックス関数 - Wikipedia

    ソフトマックス関数(ソフトマックスかんすう、英: softmax function)や正規化指数関数(せいきかしすうかんすう、英: normalized exponential function)[1]は、シグモイド関数を多次元に拡張した関数。多クラス分類問題において、ニューラルネットワークの出力を確率分布に変換することができるので、最後の活性化関数としてよく用いられる。 ソフトマックス関数という呼び名は人工知能の分野での呼び方であり、関数自体は1868年にルートヴィッヒ・ボルツマンが発表した[2]統計力学のボルツマン分布に由来する。交差エントロピーとの組合せでよく用いられるが、ボルツマン分布とエントロピーの組合せの考え方も統計力学由来である。ボルツマンマシンでも用いられているが、1989年にJohn S. Bridleがsoftmaxと命名した[3][4]。 ソフトマックス関数は、K 個

  • 【決定版】スーパーわかりやすい最適化アルゴリズム -損失関数からAdamとニュートン法- - Qiita

    オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 【決定版】スーパーわかりやすい最適化アルゴリズム 深層学習を知るにあたって、最適化アルゴリズム(Optimizer)の理解は避けて通れません。 ただ最適化アルゴリズムを理解しようとすると数式が出て来てしかも勾配降下法やらモーメンタムやらAdamやら、種類が多くあり複雑に見えてしまいます。 実は、これらが作られたのにはしっかりとした流れがあり、それを理解すれば 簡単に最適化アルゴリズムを理解することができます 。 ここではそもそもの最適化アルゴリズムと損失関数の意味から入り、最急降下法から最適化アルゴリズムの大定番のAdamそして二階微分のニュートン法まで順を追って 図をふんだんに使いながら丁寧に解説 し

    【決定版】スーパーわかりやすい最適化アルゴリズム -損失関数からAdamとニュートン法- - Qiita
  • シグモイド関数 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。 出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "シグモイド関数" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL (2017年5月) シグモイド関数(ゲイン5) シグモイド関数(シグモイドかんすう、英: sigmoid function)は、次の式 で表される実関数である。ここで、 をゲイン (gain) と呼ぶ。 シグモイド関数は、生物の神経細胞が持つ性質をモデル化したものとして用いられる。 狭義のシグモイド関数は、ゲインを1とした、標準シグモイド関数(英: standard sigmoid function) を指す。 標準シグモイド関数 シグモイド(英: sigmoid)とは、シ

    シグモイド関数 - Wikipedia
  • ランプ関数 - Wikipedia

    ランプ関数のグラフ ランプ関数(英: ramp function)とは、一変数の実関数であり、独立変数とその絶対値の平均として容易に求められる。区分線形関数。 この関数は工学において(DSPの理論など)応用を持つ。"ramp function"の名は、グラフの形状が傾斜路(英: ramp)に似ていることに由来する。

    ランプ関数 - Wikipedia
  • 活性化関数 - Wikipedia

    活性化関数(かっせいかかんすう、英: activation function)もしくは伝達関数(でんたつかんすう、英: transfer function)とは、ニューラルネットワークのニューロンにおける、入力のなんらかの合計(しばしば、線形な重み付け総和)から、出力を決定するための関数で、非線形な関数とすることが多い。 よく使われているモデルでは、人工ニューロンは1つ以上の入力を受け取り(1つ以上の樹状突起に相当)、それらの重み付け総和から、活性化関数を通して、出力を生成する。 数式では、以下のが活性化関数。 古典的にはステップ関数が提案された。他にもいろいろと考えることはできる。1986年のバックプロパゲーションの発表以降はシグモイド関数が最も一般的だった。現在はReLU(ランプ関数)の方が良いと言われる[1]。活性化関数は単調増加関数が使われる事が多い。必ずしもそうしなければいけない

    活性化関数 - Wikipedia
  • [活性化関数]ReLU(Rectified Linear Unit)/ランプ関数とは?

    連載目次 用語解説 AI機械学習のニューラルネットワークにおけるReLU(Rectified Linear Unit、「レルー」と読む)とは、関数への入力値が0以下の場合には出力値が常に0、入力値が0より上の場合には出力値が入力値と同じ値となる関数である。 図1に示すように、座標点(0, 0)を基点として、ランプ(ramp: 例えば高速道路に入るための上り坂などの「傾斜路」のこと)型曲線のグラフになるため、「ランプ関数」(ramp function)とも呼ばれる。 ニューラルネットワークの基礎となっている情報処理モデル「パーセプトロン」(後日解説)では「ステップ関数」という活性化関数が用いられ、「バックプロパゲーション」(後日解説)が登場してからは「シグモイド関数」が活性化関数として使われるようになった。 しかしディープニューラルネットワークでは、層が深くなるにつれ勾配が消えてしまう勾配

    [活性化関数]ReLU(Rectified Linear Unit)/ランプ関数とは?
  • 正規化線形関数 - Wikipedia

    x = 0近傍での正規化線形関数(青)およびソフトプラス関数(緑)のプロット 正規化線形関数(せいきかせんけいかんすう、英: Rectified linear functionあるいは単にrectifier[注釈 1]とも)は、引数の正の部分として定義される活性化関数であり、次のように表される。 上式において、 はニューロンへの入力である。これはランプ関数(傾斜路関数)としても知られ、電気工学における半波整流回路と類似している。この活性化関数は、1993年にTangらによって新しいニューロンモデルとして最初に提案され、ニューラルネットワークの学習に適用し、その有効性が示された[1]。2000年にHahnloseらによって強い生物学的動機と数学的正当化を持って、動的ネットワークへに導入された[2][3]。2011年以前に広く使われていた活性化関数、例えばロジスティックシグモイド(これは確率論

    正規化線形関数 - Wikipedia
  • 1