角川アスキー総合研究所主催のイベント「創作とディープラーニングの出会い」 (http://lab-kadokawa30.peatix.com/) での発表資料ですRead less
角川アスキー総合研究所主催のイベント「創作とディープラーニングの出会い」 (http://lab-kadokawa30.peatix.com/) での発表資料ですRead less
Cramér GAN arXiv:https://arxiv.org/abs/1705.10743v1 このGANは数日前(5/30)に投稿されたもの。 これまでGANのベースラインとして, vanilla GAN,DCGAN,WGAN,WGAN-gpなどが使われてきた. この中のWGANやWGAN-gpより優れているという主張が論文内でされている. (abstで it performs significantly better than the related Wasserstein GAN との記述) また,twitter上では「WGANは死んだ」などの強めのつぶやきが観測されている. その強さを見てみたいので,このCramér GANの論文を読み, 実装していらすとや画像を生成してみたというのが本記事の主旨。 ついでにWGAN-gpも実装して比較した。 論文の概要 機械学習に使う確率
はじめに こちらで紹介されていたDiscoGAN(Discover Cross-Domain Relations with Generative Adversarial Networks) https://arxiv.org/abs/1703.05192 が「教師なし」でイメージ変換ができるということで、前にやってた検出・カウントを教師なしで試してみました。 ChainerでDiscoGANをすでに実装している方がいらっしゃったので、ほぼ使わさせていただきました。 「chainerのtrainer機能を使ってDiscoGANを実装した」 やっていること お米の数を数えるために、数えやすい形の画像に変換する「コンバータA⇒B」をつくります。 (これくらいの画像ならば、通常の画像処理を組み合わせれば簡単にカウントできますが、それは置いといて) いままでと違うポイントは「ランダムに配置」した球の
概要 先日発表されたpix2pixが楽しそうだったので実際に動かしてみた。 対象を絞れば学習画像が500枚程度でもそれなりに動く。 結論:GANすごい。 はじめに pix2pixとは、ざっくりと言えば、2画像間に潜む画像変換をDNNで表現してしまおう!というものです。変換前後の画像さえ用意できれば大体どんな変換でも対応可能らしく、例えば以下のようなことが可能らしいです。 航空写真 → 地図画像 モノクロ画像 → カラー画像 線画 → カラー画像 (上記すべて逆も可能) 何やら万能っぽい雰囲気!素晴らしいことにコードが公開されている(torchだけど)!しかも自前画像でも簡単に試せそう! ということで試してみました。 データ flickrから収集したラーメン画像(1,000枚)を使用。多少のゴミは無視で。公式のソースコードに合わせて、各画像を中心でクロップ&リサイズしておき、学習画像と評価画
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く