タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

qiitaとselfとCに関するslay-tのブックマーク (2)

  • ゼロから作るDeep Learningで素人がつまずいたことメモ:7章 - Qiita

    7章 畳み込みニューラルネットワーク この章は、畳み込みニューラルネットワーク(CNN)の説明です。 7.1 全体の構造 これまでのAffineレイヤーやSoftmaxレイヤー、ReLUレイヤーに加えて、Convolution(畳み込み、コンボリューション)レイヤーとPooling(プーリング)レイヤーが出てくる説明です。 7.2 畳み込み層 畳み込み層の説明は、画像処理を少しかじっておいた方が読みやすいです。 「画像は通常、縦・横・チャンネル方向の3次元の形状です」とありますが、画像は縦・横の2Dデータですから、3次元だと奥行きまで加わった3Dデータになるのでは?と思われる方もいるも知れません。 ここでの「チャンネル」というのは、RGBなどの色ごとの情報を指しています。MNISTのようなグレースケール(白黒の濃淡のみ)のデータであれば1つの点の濃さを1つの値で表現できるので1チャンネルで

    ゼロから作るDeep Learningで素人がつまずいたことメモ:7章 - Qiita
  • [最新論文/GAN] ラベルがないなら推測すればいい。 - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 論文紹介・画像引用 Google Brainより2019.3.6提出 https://arxiv.org/pdf/1903.02271v1.pdf 研究のGANの特徴と成果 FIDスコア(低い方が良い) スコア8~9の間にある縦線はベースライン(すべてラベル付けされた画像を使ったBigGAN) 研究の方法($S^3GAN$)では ラベル付けされた画像は全体のたった10%にも関わらずSOTAであるBigGANと同等の性能になった また全体の20%をラベル付けされた画像にするとBigGANを超える性能となった 解像度128×128 上段

    [最新論文/GAN] ラベルがないなら推測すればいい。 - Qiita
  • 1