タグ

activation-functionに関するnabinnoのブックマーク (9)

  • Keras documentation: Layer activation functions

    Layer activation functions Usage of activations Activations can either be used through an Activation layer, or through the activation argument supported by all forward layers:

    Keras documentation: Layer activation functions
  • 活性化関数 - Keras Documentation

  • ソフトマックス関数 - Wikipedia

    ソフトマックス関数(ソフトマックスかんすう、英: softmax function)は、ロジスティック関数を多次元に拡張したもの。ネットワークの出力を確率分布に変換することができるので、ニューラルネットワークの最後の活性化関数としてよく用いられる。 定義[編集] ソフトマックス関数は、K 個の実数からなるベクトル z を入力として受け取り、入力の指数に比例する K 個の確率で構成される確率分布に正規化する。つまり、ソフトマックス関数を適用することで、各成分は区間 (0, 1) に収まり、全ての成分の和が 1 になるため、「確率」として解釈できるようになる。入力値が大きいほど「確率」も大きい。 K > 1 に対し、標準(単位)ソフトマックス関数 は次のように定義される。 簡単に言えば、入力ベクトルの の各成分 に標準的な指数関数を適用し、これらすべての指数の合計で割ることによって、値を正規化

  • 【決定版】スーパーわかりやすい最適化アルゴリズム -損失関数からAdamとニュートン法- - Qiita

    オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 深層学習を知るにあたって、最適化アルゴリズム(Optimizer)の理解は避けて通れません。 ただ最適化アルゴリズムを理解しようとすると数式が出て来てしかも勾配降下法やらモーメンタムやらAdamやら、種類が多くあり複雑に見えてしまいます。 実は、これらが作られたのにはしっかりとした流れがあり、それを理解すれば 簡単に最適化アルゴリズムを理解することができます 。 ここではそもそもの最適化アルゴリズムと損失関数の意味から入り、最急降下法から最適化アルゴリズムの大定番のAdamそして二階微分のニュートン法まで順を追って 図をふんだんに使いながら丁寧に解説 していきます。 それでは早速最適化アルゴリズムとは何

    【決定版】スーパーわかりやすい最適化アルゴリズム -損失関数からAdamとニュートン法- - Qiita
  • シグモイド関数 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "シグモイド関数" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2017年5月) シグモイド関数(ゲイン5) シグモイド関数(シグモイドかんすう、英: sigmoid function)は、次の式 で表される実関数である。ここで、 をゲイン (gain) と呼ぶ。 シグモイド関数は、生物の神経細胞が持つ性質をモデル化したものとして用いられる。 狭義のシグモイド関数は、ゲインを1とした、標準シグモイド関数(英: standard sigmoid function) を指す。 名称[編集] 標準シグモイド関数 シグモイド(英: sigmoid

    シグモイド関数 - Wikipedia
  • ランプ関数 - Wikipedia

    ランプ関数のグラフ ランプ関数(英: ramp function)とは、一変数の実関数であり、独立変数とその絶対値の平均として容易に求められる。区分線形関数。 この関数は工学において(DSPの理論など)応用を持つ。"ramp function"の名は、グラフの形状が傾斜路(英: ramp)に似ていることに由来する。 定義[編集] ランプ関数 R(x) : R → R には幾つかの同値な定義が存在する。 場合分け 指数 1 の切断冪関数 最大値関数 傾きが1の直線とその絶対値との平均[1] 傾きが1の直線とヘビサイド関数との積 ヘビサイド関数とそれ自身の畳み込み ヘビサイド関数の積分 マコーレーの括弧 解析的性質[編集] 非負性[編集] ランプ関数は定義域全体で非負となる。 そのため、関数の値はその絶対値に等しい。 導関数[編集] ランプ関数の導関数はヘビサイド関数に等しい。 二階導関数[編

    ランプ関数 - Wikipedia
  • 活性化関数 - Wikipedia

    活性化関数(かっせいかかんすう、英: activation function)もしくは伝達関数(でんたつかんすう、英: transfer function)とは、ニューラルネットワークのニューロンにおける、入力のなんらかの合計(しばしば、線形な重み付け総和)から、出力を決定するための関数で、非線形な関数とすることが多い。 概要[編集] よく使われているモデルでは、人工ニューロンは1つ以上の入力を受け取り(1つ以上の樹状突起に相当)、それらの重み付け総和から、活性化関数を通して、出力を生成する。 数式では、以下のが活性化関数。 古典的にはステップ関数が提案された。他にもいろいろと考えることはできる。1986年のバックプロパゲーションの発表以降はシグモイド関数が最も一般的だった。現在はReLU(ランプ関数)の方が良いと言われる[1]。活性化関数は単調増加関数が使われる事が多い。必ずしもそうしな

    活性化関数 - Wikipedia
  • [活性化関数]ReLU(Rectified Linear Unit)/ランプ関数とは?

    連載目次 用語解説 AI機械学習のニューラルネットワークにおけるReLU(Rectified Linear Unit、「レルー」と読む)とは、関数への入力値が0以下の場合には出力値が常に0、入力値が0より上の場合には出力値が入力値と同じ値となる関数である。 図1に示すように、座標点(0, 0)を基点として、ランプ(ramp: 例えば高速道路に入るための上り坂などの「傾斜路」のこと)型曲線のグラフになるため、「ランプ関数」(ramp function)とも呼ばれる。 ニューラルネットワークの基礎となっている情報処理モデル「パーセプトロン」(後日解説)では「ステップ関数」という活性化関数が用いられ、「バックプロパゲーション」(後日解説)が登場してからは「シグモイド関数」が活性化関数として使われるようになった。 しかしディープニューラルネットワークでは、層が深くなるにつれ勾配が消えてしまう勾配

    [活性化関数]ReLU(Rectified Linear Unit)/ランプ関数とは?
  • 正規化線形関数 - Wikipedia

    x = 0近傍での正規化線形関数(青)およびソフトプラス関数(緑)のプロット 正規化線形関数(せいきかせんけいかんすう、英: Rectified linear functionあるいは単にrectifier[注釈 1]とも)は、引数の正の部分として定義される活性化関数であり、次のように表される。 上式において、 はニューロンへの入力である。これはランプ関数(傾斜路関数)としても知られ、電気工学における半波整流回路と類似している。この活性化関数は、1993年にTangらによって新しいニューロンモデルとして最初に提案され、ニューラルネットワークの学習に適用し、その有効性が示された[1]。2000年にHahnloseらによって強い生物学的動機と数学的正当化を持って、動的ネットワークへに導入された[2][3]。2011年以前に広く使われていた活性化関数、例えばロジスティックシグモイド(これは確率論

    正規化線形関数 - Wikipedia
  • 1