タグ

aiと3Dに関するkathewのブックマーク (2)

  • AI×CG実験室 第3回 Maya×Text2Motion: テキストから生成したモーションをMayaリグへ

    2023/09/13 AI×CG実験室 第3回 Maya×Text2Motion: テキストから生成したモーションをMayaリグへ こんにちは。この連載では、AI生成技術と進化、3DCG制作現場への活用の可能性を探索していきます。今回取り上げるのは、いくつかあるモーション生成系モデルのうちのひとつ「T2M-GPT」です。 AI関連の研究は日々驚くほどのスピードで進化しています。可能な限り正確な情報を提供するよう心掛けていますが、私自身も学習中であるため、記事中に誤りが含まれる可能性があることをご理解いただければ幸いです。 1. T2M-GPTとは T2M-GPTは、テキストから人間の動きを生成するフレームワークで、VQ-VAEとGPTを組み合わせたアプローチだそうです。仕組みを解説する能力は私にはありませんが、つまりテキストからモーションを生成できるものだと思って差し支えないかと思います。

    AI×CG実験室 第3回 Maya×Text2Motion: テキストから生成したモーションをMayaリグへ
  • 文章から“3Dモデル”をAIが生成 米Googleなどが「DreamFusion」を開発

    Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米Google Researchと米UC Berkeleyの研究チームが発表した論文「DreamFusion: Text-to-3D using 2D Diffusion」は、テキストから3Dオブジェクトを生成するシステムを提案した研究報告だ。事前に学習したテキストから2D画像を生成する拡散モデルを用いて、テキストから3次元への合成を実行する。 テキストを条件に2D画像を生成するモデルは現在、高忠実度で多様かつ制御可能な画像合成をサポートしている。これらモデルの品質向上は、大規模な画像-テキストデータセットとスケーラブルな生成モデルアーキテクチャからもたらされる。 特に拡散モデルは、安定し

    文章から“3Dモデル”をAIが生成 米Googleなどが「DreamFusion」を開発
    kathew
    kathew 2022/10/07
  • 1