![](https://cdn-ak-scissors.b.st-hatena.com/image/square/b5a45ceb898b4997495c0f0607864dd9ee84ccd5/height=288;version=1;width=512/https%3A%2F%2Fimage.itmedia.co.jp%2Fait%2Farticles%2F2004%2F22%2Fcover_news014.png)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
[活性化関数]ソフトプラス関数(Softplus関数)とは?
用語「ソフトプラス関数」について説明。途中から右肩上がりになる滑らかな曲線で、「0」~「∞」の間の... 用語「ソフトプラス関数」について説明。途中から右肩上がりになる滑らかな曲線で、「0」~「∞」の間の値(入力値が0以下なら「0」に近い数値、0より上なら「入力値と同じ値」に近い数値)を返す、ニューラルネットワークの活性化関数を指す。 連載目次 用語解説 AI/機械学習のニューラルネットワークにおけるソフトプラス関数(Softplus関数)とは、あらゆる入力値を0.0~∞という正の数値に変換して出力する関数である。 図1を見ると分かるように、ReLUという活性化関数にやや似ており、途中から右肩上がりになる。ただし、関数への入力値が0付近では、出力値が0にはならない点が異なるので注意してほしい。ソフトプラス関数では、入力値が-3.0以下など小さくなればなるほど出力値が0に近づいていき、入力値が3.0以上など大きくなればなるほど出力値が入力値と同じ値に近づいていくのが特徴的だ。
2020/04/22 リンク