タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

wganに関するxiangzeのブックマーク (4)

  • 今さら聞けないGAN (5) WGAN-gpの実装 - Qiita

    はじめに 前回の記事でwganおよび改良型wgan(wgan-gp)の説明をおこないました。 今回はkerasでの実装のポイントと生成結果について紹介します。 参考にしたコードは以下 tjwei/GANotebooks discriminatorの学習のためのモデル定義 discriminatorの学習のための全体構造(discriminator_with_own_loss)を実装していきます。 WGAN-gpにおける学習では、識別でよく使われる形式 (y_true, y_pred)、つまり、「正解ラベルと予想結果を付き合わせる」といった形式を用いません。binary_cross_entropyなどの既に定義された関数を使うのではなく、損失関数を独自に定義する必要があります。 損失関数を定義して使用する 損失関数を独自に定義し、optimizerに渡して学習させていく手順は以下です。 mo

    今さら聞けないGAN (5) WGAN-gpの実装 - Qiita
  • 今さら聞けないGAN(4) WGAN - Qiita

    はじめに 前回までの記事で、DCGANへの拡張および、現状のGANの問題点について述べました。今回は、それを解決するための方法としてWGANおよびその改良版(WGAN-gp)について説明します。前回までの記事は以下 今さら聞けないGAN (1) 基構造の理解 今さら聞けないGAN (2) DCGANによる画像生成 今さら聞けないGAN (3) 潜在変数と生成画像 WGANについて参考になったリンク Wasserstein GAN [arXiv:1701.07875] ご注文は機械学習ですか? Wasserstein GAN(WGAN)でいらすとや画像を生成してみる Wasserstein GAN と Kantorovich-Rubinstein 双対性 GANの問題点 学習が難しい 勾配消失問題が起こる 生成結果のクオリティを損失関数から判断しにくい モード崩壊が起こる 改良方法 Was

    今さら聞けないGAN(4) WGAN - Qiita
  • https://www.renom.jp/ja/notebooks/tutorial/generative-model/WGAN/notebook.html

  • フレンズ画像を生成させてみたい - Wasserstein AutoEncoder - Qiita

    GrubCutを使ってそこそこ背景除去ができたので、そのデータを使って画像生成にチャレンジしてみました。今回はGANではなくWasserstein AutoEncoderを使っています。 Adversarial AutoEncoder 当初、Adversarial AutoEncoderの利用を考えていました。これはAutoEncoderをGANのアプローチで実現するもので、一般的なAutoEncoderと異なり画像の特徴を特定の分布に従った潜在空間に埋め込むもので、VAEに近いものと理解しています。 参考: [Survey]Adversarial Autoencoders - Qiita Wasserstein AutoEncoderの符号化器は決定的ではなく確率的である方が潜在変数の次元数がデータの有効次元数と合わない場合でもうまく学習できる(元の論文の主張である生成がシャープになる利

    フレンズ画像を生成させてみたい - Wasserstein AutoEncoder - Qiita
  • 1