エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
[活性化関数]SELU(Scaled Exponential Linear Unit)とは?
[活性化関数]SELU(Scaled Exponential Linear Unit)とは?:AI・機械学習の用語辞典 用語「SELU(Sc... [活性化関数]SELU(Scaled Exponential Linear Unit)とは?:AI・機械学習の用語辞典 用語「SELU(Scaled Exponential Linear Unit)」について説明。「0」を基点として、入力値が0以下なら「0」~「-λα」(λは基本的に約1.0507、αは基本的に約1.6733)の間の値を、0より上なら「入力値をλ倍した値」を返す、ニューラルネットワークの活性化関数を指す。ReLUおよびELUの拡張版。 連載目次 用語解説 AI/機械学習のニューラルネットワークにおけるSELU(Scaled Exponential Linear Unit)とは、関数への入力値が0以下の場合には出力値が「0.0」~「-λα」(※λの値は基本的に約1.0507009873554804934193349852946で、αの値が基本的に約 1.67326324235
2020/06/03 リンク