エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント2件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
[活性化関数]Mish関数(ミッシュ関数)とは?
用語「Mish関数」について説明。「0」を基点として、入力値が0以下なら出力値は「ほぼ0」だが(わずかに... 用語「Mish関数」について説明。「0」を基点として、入力値が0以下なら出力値は「ほぼ0」だが(わずかに「負の値」になる)、0より上なら「入力値とほぼ同じ値」を返す、ニューラルネットワークの活性化関数を指す。類似するReLUやSwish関数の代替として使われる。 連載目次 用語解説 AI/機械学習のニューラルネットワークにおけるMish関数(ミッシュ関数)とは、関数への入力値が0以下の場合には出力値がほぼ0(※わずかに負の値になり、最小値は約-0.31)、入力値が0より上の場合には出力値が入力値とほぼ同じ値(最大値は∞)となる関数である。 図1を見ると分かるように、ReLUという活性化関数に似ている曲線を描く(=ReLUをMish関数に置き換えやすい)が、その曲線が連続的で滑らか(smooth)かつ非単調(non-monotonic)である点が異なる。基点として(0, 0)を通るが、滑らか
2020/04/29 リンク