エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
続:Traxでカスタム活性化関数を使う
はじめに この記事は以下の記事の続きです。 前回は、Googleが公開しているDeep Learningライブラリの一... はじめに この記事は以下の記事の続きです。 前回は、Googleが公開しているDeep Learningライブラリの一つであるTraxで、独自の活性化関数を使う方法を書きました。 ですが、その時は純粋関数しか扱いませんでした。 今回は、もう少し複雑な挙動をする活性化関数を実装します。 learnableなケース:ParametricRelu TraxではParametricReluが実装されています。 ならば独自で実装する意味がなさそうに見えますが、実はTraxのParametricReluは、 @assert_shape('...->...') # The output and input shapes are the same. def ParametricRelu(a=1.): r"""Returns a layer that computes a ReLU function wit