![](https://cdn-ak-scissors.b.st-hatena.com/image/square/64c2c626468983a471e1e25beef3ab56611073e3/height=288;version=1;width=512/https%3A%2F%2Fres.cloudinary.com%2Fzenn%2Fimage%2Fupload%2Fs--rU-eO6Ya--%2Fc_fit%252Cg_north_west%252Cl_text%3Anotosansjp-medium.otf_55%3A%2525E7%2525B6%25259A%2525EF%2525BC%25259ATrax%2525E3%252581%2525A7%2525E3%252582%2525AB%2525E3%252582%2525B9%2525E3%252582%2525BF%2525E3%252583%2525A0%2525E6%2525B4%2525BB%2525E6%252580%2525A7%2525E5%25258C%252596%2525E9%252596%2525A2%2525E6%252595%2525B0%2525E3%252582%252592%2525E4%2525BD%2525BF%2525E3%252581%252586%252Cw_1010%252Cx_90%252Cy_100%2Fg_south_west%252Cl_text%3Anotosansjp-medium.otf_37%3ACatminusminus%252Cx_203%252Cy_121%2Fg_south_west%252Ch_90%252Cl_fetch%3AaHR0cHM6Ly9zdG9yYWdlLmdvb2dsZWFwaXMuY29tL3plbm4tdXNlci11cGxvYWQvYXZhdGFyLzExNDI4ZDQ1MTUuanBlZw%3D%3D%252Cr_max%252Cw_90%252Cx_87%252Cy_95%2Fv1627283836%2Fdefault%2Fog-base-w1200-v2.png)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
続:Traxでカスタム活性化関数を使う
はじめに この記事は以下の記事の続きです。 前回は、Googleが公開しているDeep Learningライブラリの一... はじめに この記事は以下の記事の続きです。 前回は、Googleが公開しているDeep Learningライブラリの一つであるTraxで、独自の活性化関数を使う方法を書きました。 ですが、その時は純粋関数しか扱いませんでした。 今回は、もう少し複雑な挙動をする活性化関数を実装します。 learnableなケース:ParametricRelu TraxではParametricReluが実装されています。 ならば独自で実装する意味がなさそうに見えますが、実はTraxのParametricReluは、 @assert_shape('...->...') # The output and input shapes are the same. def ParametricRelu(a=1.): r"""Returns a layer that computes a ReLU function wit