サクサク読めて、アプリ限定の機能も多数!
“「0」を基点として、入力値が0以下なら「0」~「-λα」(λは基本的に約1.0507、αは基本的に約1.6733)の間の値を、0より上なら「入力値をλ倍した値」を返す、ニューラルネットワークの活性化関数を指す。”
misshiki のブックマーク 2020/06/03 13:45
[活性化関数]SELU(Scaled Exponential Linear Unit)とは?[ディープラーニング]“「0」を基点として、入力値が0以下なら「0」~「-λα」(λは基本的に約1.0507、αは基本的に約1.6733)の間の値を、0より上なら「入力値をλ倍した値」を返す、ニューラルネットワークの活性化関数を指す。”2020/06/03 13:45
このブックマークにはスターがありません。 最初のスターをつけてみよう!
atmarkit.itmedia.co.jp2020/06/03
[活性化関数]SELU(Scaled Exponential Linear Unit)とは?:AI・機械学習の用語辞典 用語「SELU(Scaled Exponential Linear Unit)」について説明。「0」を基点として、入力値が0以下なら「0」~「-λα」(λ...
1 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /
“「0」を基点として、入力値が0以下なら「0」~「-λα」(λは基本的に約1.0507、αは基本的に約1.6733)の間の値を、0より上なら「入力値をλ倍した値」を返す、ニューラルネットワークの活性化関数を指す。”
このブックマークにはスターがありません。
最初のスターをつけてみよう!
[活性化関数]SELU(Scaled Exponential Linear Unit)とは?
[活性化関数]SELU(Scaled Exponential Linear Unit)とは?:AI・機械学習の用語辞典 用語「SELU(Scaled Exponential Linear Unit)」について説明。「0」を基点として、入力値が0以下なら「0」~「-λα」(λ...
1 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /