サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
円安とは
qiita.com/Phoeboooo
パラメータ数の計算まとめ NN , CNN , Embedding , SimpleRNN, LSTM, GRU CNN, NN(Dense) model = models.Sequential() model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(150, 150, 3))) model.add(layers.MaxPooling2D((2, 2))) model.add(layers.Conv2D(64, (3, 3), activation='relu')) model.add(layers.MaxPooling2D((2, 2))) model.add(layers.Conv2D(128, (3, 3), activation='relu')) model.add(layers.MaxPoolin
実際に生成してみた画像 本記事について ・Google Colaboratoryで学習済みのStyleGANを使って、冒頭のような顔画像・スタイルミックスした画像・ベッドルーム・車・猫の画像を生成してみた ・StyleGANのGitHubの説明通りに行うことで学習済みモデルを使える ・本記事で記載するコードはその説明通りのもののため、コピペすれば同じように画像生成ができると思う ・本記事にある画像はすべて実際に学習済みのStyleGANを使って生成した画像である 画像生成 ①準備 #git clone でStyleGANのコードを使えるようにする !git clone https://github.com/NVlabs/stylegan.git #ディレクトリ移動 cd stylegan import os import pickle import numpy as np import P
論文紹介・画像引用・GIF引用 NVIDIAより2019.3.18提出 https://arxiv.org/pdf/1903.07291v1.pdf https://github.com/NVlabs/SPADE https://www.youtube.com/watch?v=MXWm6w4E5q0&feature=youtu.be https://gadgets.evolves.biz/2019/03/20/nvidia_smartpaintbrush/ 本研究について ・セマンティックセグメンテーションマスクからリアルな画像への変換 ・エンコーダーを使うことでスタイルの選択も可能 ・SPADE(後述)という正規化層を加えることによって、少ないパラメータで意味情報を捉えた画像合成ができるようになった 欲しい画像を簡単につくれる ・ユーザーがセグメンテーションマスクを描くことで、それに対応
論文紹介・画像引用 2019.3.13提出 https://arxiv.org/pdf/1903.05628v1.pdf 本研究の成果 ・モード崩壊に対処するための正則化項(本研究提案・後述)を目的関数に追加することで、 conditional GANs(cGANs)での多様な画像生成を可能にした ・正則化項は潜在変数間の距離に対する生成画像間の距離の比率を最大化することを目的としたもの (「Mode collapseとMode seeking」の章の図と「Mode Seeking GANs」の章の図を見れば直感的な理解ができるはず) ・正則化項は様々なcGANに適用できる ・カテゴリ生成・image-to-image・text-to-imageの3つの条件付き画像生成を行ったが、 どのタスクでも画像の質を落とすことなく多様性の向上を実現した これまでのconditional GANの問題
論文紹介・画像引用 Google Brainより2019.3.6提出 https://arxiv.org/pdf/1903.02271v1.pdf 本研究のGANの特徴と成果 FIDスコア(低い方が良い) スコア8~9の間にある縦線はベースライン(すべてラベル付けされた画像を使ったBigGAN) 本研究の方法($S^3GAN$)では ラベル付けされた画像は全体のたった10%にも関わらずSOTAであるBigGANと同等の性能になった また全体の20%をラベル付けされた画像にするとBigGANを超える性能となった 解像度128×128 上段:BigGAN 下段:画像の10%のみラベルありのデータを使った$S^3GAN$ データの現実とその対策 これまでの鮮明な画像生成は大量のラベル付きデータによって実現してきた しかし現実的には、ほとんどのデータはラベル付けされていない・ラベル付け自体が多大な
論文紹介 画像引用 https://openreview.net/pdf?id=Bkg3g2R9FX https://github.com/Luolc/AdaBound https://www.luolc.com/publications/adabound/ AdaBoundとAMSBound Adamに学習率の上限と下限を動的に加えたものをAdaBound AMSGradに学習率の上限と下限を動的に加えたものをAMSBound どちらの手法も最初はAdamのように動き、後半からSGDのように動く Adamの良さである初期の学習の速さとSGDの良さである汎化能力を両立した最適化手法 Adamの問題点 SGDと比べて汎化性能が劣る・未知のデータに弱い 不安定で極端な学習率を使うため上手く収束しない AMSGrad こういったAdamの問題を解決しようとしてできたのがAMSGrad http:
・各convolution層後にstyleの調整を行う ・細部の特徴(髪質やそばかす)はノイズによって生成される ・潜在変数$z$を中間潜在変数$w$にマッピングする ・これまでのGANのようにGeneratorの入力層に潜在変数$z$を入れることはしない Style-based generator A:$w$をstyle($y_s,y_b$)に変えるためのアフィン変換 $y_s,y_b$はチャンネルごとに値をもつ B:ノイズは1チャンネル画像から成る convの出力に足し合わせる前に、ノイズをチャンネルごとにスケーリングすることを意味する 構成 Style-based generatorではこれまでのような入力層は使わず、全結合層を連ねたMapping network fから始まる Mapping network fは8層で構成されSynthesis network gは18層で構成され
a = np.array([[1,2,3], [4,5,6]]) print(a)
このページを最初にブックマークしてみませんか?
『qiita.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く