タグ

ブックマーク / shiropen.com (6)

  • 画像から画像への新変換「Council GAN」メガネ除去、自撮りからアニメキャラ顔、男から女へ

    画像から画像への新変換「Council GAN」メガネ除去、自撮りからアニメキャラ顔、男から女へ 2020-06-26 テクニオン – イスラエル工科大学の研究チームが開発した「Breaking the cycle—Colleagues are all you need」は、ペアでないドメイン間(分野、領域、種類など)で画像から画像への変換を行うGAN(Generative Adversarial Network)を用いた新しい手法「Council GAN」だ。 CouncilGANを用いてメガネありからメガネなしに変換 CouncilGANを用いて実顔からアニメ顔に変換 CouncilGANを用いて男性から女性へ変換 1対1のペア画像から学習し変換する手法 画像から画像への変換(image-to-image translation)では、過去に Image-to-Image Transl

    misshiki
    misshiki 2020/06/30
    “、ペアでないドメイン間(分野、領域、種類など)で画像から画像への変換を行うGAN(Generative Adversarial Network)を用いた新しい手法「Council GAN」”
  • 手書きスケッチからリアル顔画像を作成、深層学習で「DeepFaceDrawing」

    手書きスケッチからリアル顔画像を作成、深層学習で「DeepFaceDrawing」 2020-06-04 中国科学院と香港城市大学による研究チームが開発した「DeepFaceDrawing」は、手書きスケッチからリアルな顔画像を生成する深層学習フレームワークだ。 手書きスケッチからリアル顔を生成するDeepFaceDrawing このような深層学習を用いたスケッチ画像からリアル画像への変換では、Image-to-Image Translation with Conditional Adversarial Nets [Isola et al. 2017] などで実証されている。しかしデータ駆動型の性質上、実画像とそれに対応するエッジマップのペアからネットワークを学習することが多いため、リアルな顔画像を合成するためには、実画像のエッジマップに近い品質のテストスケッチが必要となる。それを用意する

    手書きスケッチからリアル顔画像を作成、深層学習で「DeepFaceDrawing」
    misshiki
    misshiki 2020/06/05
    “ 中国科学院と香港城市大学による研究チームが開発した「DeepFaceDrawing」は、手書きスケッチからリアルな顔画像を生成する深層学習フレームワークだ。”面白い。
  • 飛び石を落下せず2足歩行、カリキュラムベースの強化学習「ALLSTEPS」

    ブリティッシュコロンビア大学の研究チームが開発した「ALLSTEPS」は、二足歩行シミュレーションにおいて、ランダムに生成される飛び石から落下さず歩行するカリキュラムベースの強化学習法だ。 二足歩行による移動はコンピュータアニメーションやロボット工学の基的な問題であり、データ駆動型や物理学に基づいた解決策が数多く提案されているが、ランダムな飛び石地形をナビゲートする研究はあまり反映されていない。 研究ではこの課題に挑戦するため、飛び石における制御ポリシーをDeep reinforcement learning (DRL)を用いてゼロから学習する。ポリシーの能力に応じてタスクの難易度を徐々に上げていくカリキュラム学習を採用。進捗状況に応じて、地形難易度を動的に調整することで学習効率を向上させる。4つの異なるカリキュラムを評価し、それぞれが異なる原理に基づいて学習を進め、カリキュラムなしの

    misshiki
    misshiki 2020/06/01
    “「ALLSTEPS」は、二足歩行シミュレーションにおいて、ランダムに生成される飛び石から落下さず歩行するカリキュラムベースの強化学習法”
  • 人の動きを操るGANベースの合成法、動画から動画への転移技術

    中国科学院、ボストン大学、TAL Education Group、カーディフ大学、香港城市大学による研究チームは、動画内の人の動きを別の動画内の人に転移し動かしてしまうGAN(Generative Adversarial Network)を使った研究「Human Motion Transfer with 3D Constraints and Detail Enhancement」を発表した。 左端がソース動画、右端が手法の出力結果 ターゲット動画(動かされる側)内の人の外観を維持したまま、ソース動画(動かす側)の人の動きを模倣した合成映像を生成する。 このようなGANを使って動画内の人物の動きだけを他の動画内の人物へ転移する技術は、2018年に「Everybody Dance Now」[Chan et al. 2018] が発表している。画像内に写る人物の関節と骨格を検出する「OpenP

    misshiki
    misshiki 2020/05/22
    “動画内の人の動きを別の動画内の人に転移し動かしてしまうGAN(Generative Adversarial Network)を使った研究「Human Motion Transfer with 3D Constraints and Detail Enhancement」を発表した。”
  • 東工大、0.5秒後の相手の動きをリアルタイムに予測するdeep learningを用いた格闘訓練システム「FuturePose」発表

    東工大、0.5秒後の相手の動きをリアルタイムに予測するdeep learningを用いた格闘訓練システム「FuturePose」発表 2019-04-23 東京工業大学による研究チームは、0.5秒後の相手の動きをリアルタイムに予測し格闘の訓練ができるdeep learningを用いたシステム「FuturePose」を発表しました。 論文:FuturePose – Mixed Reality Martial Arts Training Using Real-Time 3D Human Pose Forecasting With a RGB Camera 著者:Erwin Wu ; Hideki Koike 所属:Tokyo Institute of Technology 論文は、1台のRGBカメラによる画像から0.5秒後の相手の動きをリアルタイムに予測するdeep learningを用いた

    東工大、0.5秒後の相手の動きをリアルタイムに予測するdeep learningを用いた格闘訓練システム「FuturePose」発表
  • スタンフォード大学など、単眼カメラから人の動きと物体との相互作用における因果関係を学習する機械学習モデルを発表。行動予測に活用など

    スタンフォード大学など、単眼カメラから人の動きと物体との相互作用における因果関係を学習する機械学習モデルを発表。行動予測に活用など 2019-02-21 スタンフォード大学やUberATGなどによる研究チームは、単眼カメラから人の動きと物体との相互作用における因果関係を学習する機械学習モデルを発表しました。 論文:Learning a Generative Model for Multi-Step Human-Object Interactions from Videos 著者:He Wang, Sören Pirk, Ersin Yumer, Vladimir G. Kim,  Ozan Sener, Srinath Sridhar, Leonidas J. Guibas 所属:Stanford University, Uber ATG, Adobe Research, Intel La

    スタンフォード大学など、単眼カメラから人の動きと物体との相互作用における因果関係を学習する機械学習モデルを発表。行動予測に活用など
  • 1