タグ

2019年2月28日のブックマーク (2件)

  • TensorFlow/Kerasでネットワーク内でData Augmentationする方法

    NumpyでData Augmentationするのが遅かったり、書くの面倒だったりすることありますよね。今回はNumpy(CPU)ではなく、ニューラルネットワーク側(GPU、TPU)でAugmetationをする方法を見ていきます。 こんなイメージ Numpy(CPU)でやる場合 NumpyでDataAugmentation→model.fit_generator(…)→Input→ニューラルネットワーク ニューラルネットワークでやる場合 model.fit(…)/.fit_generator(…)→Input→Data Augmetation層→ニューラルネットワークの隠れ層 今回はこちらを見ていきます。 Data Augmentation層 今回はランダムなHorizontal Flip+Random Cropといういわゆる「Standard Data Augmentation」を実

    TensorFlow/Kerasでネットワーク内でData Augmentationする方法
  • CNNのボトルネック層(1x1畳み込み)による計算効率向上を理解する - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 「1x1畳み込みを使うと計算効率がよくなるよ」という話は聞いたことあっても、具体的にどれだけ良くなるのかを理論的に議論されることはあまり多くないように思います。自分の理解も含めて、一度これをちゃんと整理したいと思います。少し数式多めですがご勘弁ください。 実験のコードはこちらにあります。 https://github.com/koshian2/Inception-bottleneck Summary 入力チャンネルがc, 出力がf, $c=\beta f$で、ボトルネックでのチャンネル圧縮が$\frac{f}{\alpha}$のとき、ボ

    CNNのボトルネック層(1x1畳み込み)による計算効率向上を理解する - Qiita
    mainyaa
    mainyaa 2019/02/28