タグ

paddingに関するohnabeのブックマーク (1)

  • CNNで各層にzero paddingを入れる意味 - デー

    いろいろなCNNの実装を見ていると、畳み込み層の前にzero padding(Torch7だとSpatialZeroPadding)を入れているものが多くて、自分も使っているのですが、これにどんな意味があるのが正直良く分かっていないので、詳しい文献などあれば紹介してください。以上。 自分で使っていてこれで終わるのもアレなので自分の理解。 悪い点: 入力にzero padding入れると変なデータを学習してしまうのではないか? いろいろな実装参考にしたのと、自分で試した感じだと、畳み込みカーネルサイズの半分以下のpaddingは特に悪い影響はないようです。 逆に、端っこにしか出てこないパターンを識別しやすくなるのでは?とか。 良い点: 畳み込み演算の回数が増えるのでパラメーターの更新が多く実行される weight sharingしているカーネルのパラメーターは入力画像に対する畳み込み演算の回

    CNNで各層にzero paddingを入れる意味 - デー
  • 1