記事へのコメント2

    • 注目コメント
    • 新着コメント
    stealthinu
    stealthinu こっちの実験だとReLU-BNのほうが、論文に書かれてたBN-ReLUのパターンよりも良いと書かれている。あとBNと弱いDropout(0.2)併用の結果がよくなることも示されてる。

    2018/12/21 リンク

    その他
    yu4u
    yu4u batch normalizationとactivationの順番とかdropoutとの組み合わせとかの評価

    2017/01/25 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    caffenet-benchmark/batchnorm.md at master · ducha-aiki/caffenet-benchmark

    This is quick evaluation of BatchNorm layer (BVLC/caffe#3229) performance on ImageNet-2012. Other...

    ブックマークしたユーザー

    • stealthinu2018/12/21 stealthinu
    • miyakawa_taku2018/06/11 miyakawa_taku
    • yu4u2017/01/25 yu4u
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事