You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert
ReStyle: A Residual-Based StyleGAN Encoder via Iterative Refinement Yuval Alaluf Or Patashnik Daniel Cohen-Or Tel-Aviv University International Conference on Computer Vision, 2021 Paper Code Colab Demo Abstract: Recently, the power of unconditional image synthesis has significantly advanced through the use of Generative Adversarial Networks (GANs). The task of inverting an image into its correspon
memo.sugyan.com の記事の続き(?)。 ある程度の学習データを収集して学習させたモデルが出来たので、それを使って実際に色々やってみる。 StyleGAN2-ADA 学習 mapping出力と生成画像 生成画像の属性推定結果から潜在空間の偏りを抽出 表情推定 顔姿勢推定 髪領域推定 (顔解析) 年齢 (上手くいかず) 複合 Repository StyleGAN2-ADA 前回の記事でも書いたけど、厳選した16,000枚の画像を使って StyleGAN2-ADA を使って生成モデルを学習させてみた。 github.com これは StyleGAN2 から進化したもので、より少ない枚数からでも安定して学習が成功するようになっていて、さらにparameter数など調整されて学習や推論もより早くなっている、とのこと。 それまでのStyleGANシリーズはTensorFlowで実装され
概要 テーブルデータ用のGANの一つであるCTGANをCensus Incomeデータセットに対して試して偽のテーブルデータを生成します。生成したデータを使ってXGBoostを訓練し、元データと比べてどの程度の精度が出るかを検証します。 CTGAN GANといえばリアルな偽画像を生成できる技術として有名ですが、非画像データに対するGANの研究も進んでいます。テーブルデータに対応したGANでコードが公開されているものとしては以下のようなものがあります。 MedGAN [arXiv:1703.06490][GitHub] TableGAN [arXiv:1806.03384][GitHub] TGAN [arXiv:1811.11264][GitHub] CTGAN [arXiv:1907.00503][GitHub] MedGANは名前の通り医療用データへの応用を念頭に開発されたモデルでカテ
AI技術を用いて架空の画像や映像を合成するディープフェイクは、人の目には真偽を見分けることが非常に難しい段階まで発展しており、実在しない人物の顔写真を簡単に作成できることからSNSなどでも大きな問題となっています。そんなディープフェイクの顔写真を、瞳に映った光の反射から見抜く技術を、ニューヨーク州立大学バッファロー校の研究チームが開発しました。 EXPOSING GAN-GENERATED FACES USING INCONSISTENT CORNEAL SPECULAR HIGHLIGHTS (PDFファイル)https://arxiv.org/pdf/2009.11924.pdf New AI tool detects Deepfakes by analyzing light reflections in the eyes https://thenextweb.com/neural/2
3つの要点 ✔️ 世界初の純粋なトランスフォーマーベースのGAN ✔️ 変形GANを学習するためのメモリフレンドリーな生成器と新しい学習技術のセット ✔️ STL-10ベンチマークにおいて、CNNベースのGANや新しいSOTAと競合する結果を獲得 TransGAN: Two Transformers Can Make One Strong GAN written by Yifan Jiang, Shiyu Chang, Zhangyang Wang (Submitted on 14 Feb 2021 (v1), last revised 16 Feb 2021 (this version, v2)) Comments: Accepted to arXiv. Subjects: Computer Vision and Pattern Recognition (cs.CV) code: はじめ
0. 忙しい方へ CNNから完全に解放された画像生成のGANを目指したよ TransGANは生成器(G)にも識別器(D)にもTransformerのエンコーダを用いているよ TransGANで高い性能を得るには次の4つが欠かせないよ データオーギュメンテーション 超解像タスクを用いたCo-training Self-Attention(SA)の適用範囲の調整 スケールアップ STL-10では、CNNベースのGANの性能を超えState-of-the-Art(SoTA)な性能を叩き出したよ 1. TransGANの説明 1.1 Transformerエンコーダ 画像: "TransGAN: Two Transformers Can Make One Strong GAN", Jiang, Y., Chang, S., Wang, Z. (2021) TransGANはTransformerの
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米ワシントン大学、米スタンフォード大学、米Adobe Researchによる研究チームが開発した「Lifespan Age Transformation Synthesis」は、1枚の顔写真から過去と未来の経年変化を推定する深層学習フレームワークだ。0歳から70歳までの頭部全体を予測する。 加齢をシミュレーションする既存手法の多くは質感の変化に限定されており、人間の老化や成長過程で生じる頭部形状の変化を見落としている。そのため、質の高い結果は得られていない。 この課題に挑戦するための理想的なモデルは、同一人物による1歳ごとのペア画像を用いて教師あり学習をすることだが、経年変化を捉えた大規模
For significantly better and customizable anime image generation, check out Holara AI Creativity Slider 0.5 Higher creativity values tell the AI to be more creative and detailed, but also messy and weird Speed Slider 1.5 Space: pause grid, Drag: pan grid, Click: open image in new tab F: fullscreen mode, Z: toggle zoom on hover, V: video mode You can find updates about anime and AI on Twi
A tutorial explaining how to train and generate high-quality anime faces with StyleGAN 1+2 neural networks, and tips/scripts for effective StyleGAN use. Generative neural networks, such as GANs, have struggled for years to generate decent-quality anime faces, despite their great success with photographic imagery such as real human faces. The task has now been effectively solved, for anime faces as
はじめ インドで本場のカレーを堪能したいのですが、コロナ渦で中々それが叶わず。なので現地に行けないのなら、せめてインディアンスの顔がインド風になればそのカレー欲が満たされるのでは(?)と思いその仮説を検証することにしました。 なかみ CycleGANでインド人の顔と日本人の顔のドメイン変換器を作ります。 以下を参考に実装しました。 CycleGANをpytorchで実装してみた 学習に必要なインド人の顔の画像と日本人の顔の画像は以下を参考に取得しました。 API を叩かずに Google から画像収集をする class Google(object): def __init__(self): self.GOOGLE_SEARCH_URL = "https://www.google.co.jp/search" self.session = requests.session() self.ses
はじめに 2年ほど前,私はGANというものに出会って感銘を受け,Qiitaで『SushiGAN 〜人工知能は寿司を握れるか?〜』というちょっと釣りっぽいタイトルの記事を書きました.中身はChainerのexampleにあったDCGANの実装を寿司の画像で学習させてみるというもので,下のようなモード崩壊気味の寿司画像を作って満足していました. あれから2年あまりが経ち,画像生成の技術は驚くべき発展を遂げました1.StyleGAN,そしてStyleGAN2が登場し,すぐには見分けがつかないほどの品質で1024x1024の人の顔の画像が生成できるようになりました [1].そのインパクトは凄まじく,"This Person Does Not Exist"を皮切りに,GANで生成したリアルな偽物のサンプルをランダムに表示するWebサイトがちょっとした流行になりました.いくつか例を挙げると,次のような
3つの要点 ✔️ Skip-Layer Excitationとself-supervised Discriminatorを提案し、パラメータの大幅削減に成功 ✔️ 少量データでも学習可能 ✔️ 1024×1024の画像もGPU1枚、数時間で学習可能 Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image Synthesis written by Anonymous (Submitted on 29 Sep 2020) Comments: Accepted at ICLR2021 Subjects: Computer Vision and Pattern Recognition (cs.CV); Image and Video Processing (eess.IV) Comm 概要 これまでのG
はじめに 「メルアイコン」と呼ばれる、Melvilleさんの描くアイコンはその独特な作風から大勢から人気を集めています。 上はMelvilleさんのアイコンです。 この方へアイコンの作成を依頼し、それをtwitterアイコンとしている人がとても多いことで知られています。 代表的なメルアイコンの例 (左から順にゆかたゆさん、みなぎさん、しゅんしゅんさんのものです (2020/12/1現在)) 自分もこんな感じのメルアイコンが欲しい!!ということで機械学習でメルアイコン生成器を実装しました!!.......というのが前回の大まかなあらすじです。 今回は別の手法を使って、キャラの画像をメルアイコンに変換するモデルを実装しました。例えばこんな感じで変換できます。 実装したコードはこちら 本記事ではこれに用いた手法を紹介していきます。 GANとは 画像の変換にあたってはUGATITという手法を使って
今回の目的 前回は畳み込みニューラルネットワークを使用したGAN、いわゆるDCGANを作り、MNISTの手書き数字っぽい画像を自動生成してみました。今回は、その学習時にフォーカスを当てて、実際にはどんなふうに学習が進んでいるのかを見てみることにしました。 といっても今回行ってみるのは、前回に紹介したDCGANの論文や、難しい数式をベースに話をするのではなく、識別器(ディスクリミネーター)からの出力がどんな値になっているかを主な話題とするつもりです。 そこで、識別器と生成器の役割について、ここで一度振り返っておきましょう。 DCGAN(Deep Convolutional Generative Adversarial Network)の「Adversarial」は「敵対的」という意味でした。このことからも分かる通り、識別器と生成器は相反する目的を持っています。識別器が訓練データと偽データとを
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く