並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 50 件 / 50件

新着順 人気順

AnimateDiffの検索結果41 - 50 件 / 50件

  • 【AnimateDiff + roop】ディープフェイク動画生成

    「元動画無しでディープフェイク動画を生成したい」 「顔を指定してGIFアニメを生成したい」 このような場合には、この記事の内容が参考になります。 この記事では、web UIで簡単にディープフェイク動画を生成する方法を解説しています。 本記事の内容 元動画無しでディープフェイク動画を生成する方法ディープフェイク動画生成手順 それでは、上記に沿って解説していきます。 元動画無しでディープフェイク動画を生成する方法 まず、この記事で言うディープフェイク動画の定義から説明します。 ディープフェイクとは、画像や動画における人の顔を著名人などの顔に入れ替える技術のことを言います。 その技術を用いて作成した動画をディープフェイク動画と言います。 一般的には、そのようにディープフェイク動画を定義します。 この定義のディープフェイク動画を生成したい場合は、次の記事をご覧ください。

      【AnimateDiff + roop】ディープフェイク動画生成
    • 【AIアニメ】ComfyUI AnimateDiffでSDXLモデルを試す(HotshotXL)|Baku

      【2023/11/10追記】AnimateDiff公式がSDXLに対応しました(ベータ版)。ただし現時点ではHotshot-XLを利用したほうが動画の質が良いようです。 「Hotshot-XL」は、Stable Diffusion XL(SDXL)モデルを使ってGIF動画を生成するためのツールです。 「ComfyUI-AnimateDiff」が、最近この「HotshotXL」に対応したようなので試してみました。 留意点ちょっとややこしいですが「AnimateDiff」と「HotshotXL」は別物です。「ComfyUI版のAnimateDiff」が独自に機能拡張し、HotshotXLを使えるようになったものです。 HotshotXLは推奨される動画の長さがフレームと短く動きも不自然になりやすいため、性能面では通常のAnimateDiffに及びません。 必要な準備ComfyUI本体の導入方法

        【AIアニメ】ComfyUI AnimateDiffでSDXLモデルを試す(HotshotXL)|Baku
      • GitHub - Kosinkadink/ComfyUI-AnimateDiff-Evolved: Improved AnimateDiff for ComfyUI and Advanced Sampling Support

        Download motion modules. You will need at least 1. Different modules produce different results. Original models mm_sd_v14, mm_sd_v15, mm_sd_v15_v2, v3_sd15_mm: HuggingFace | Google Drive | CivitAI Stabilized finetunes of mm_sd_v14, mm-Stabilized_mid and mm-Stabilized_high, by manshoety: HuggingFace Finetunes of mm_sd_v15_v2, mm-p_0.5.pth and mm-p_0.75.pth, by manshoety: HuggingFace Higher resoluti

          GitHub - Kosinkadink/ComfyUI-AnimateDiff-Evolved: Improved AnimateDiff for ComfyUI and Advanced Sampling Support
        • GitHub - Yutong-Zhou-cv/Awesome-Text-to-Image: (ෆ`꒳´ෆ) A Survey on Text-to-Image Generation/Synthesis.

          Text to Face👨🏻🧒👧🏼🧓🏽 (arXiv preprint 2024) [💬 3D] Portrait3D: Text-Guided High-Quality 3D Portrait Generation Using Pyramid Representation and GANs Prior, Yiqian Wu et al. [Paper] (CVPR 2024) CosmicMan: A Text-to-Image Foundation Model for Humans, Shikai Li et al. [Paper] [Project] (arXiv preprint 2024) Fast Text-to-3D-Aware Face Generation and Manipulation via Direct Cross-modal Mapping an

            GitHub - Yutong-Zhou-cv/Awesome-Text-to-Image: (ෆ`꒳´ෆ) A Survey on Text-to-Image Generation/Synthesis.
          • AIでアニメーション制作!AnimateDiffの基本的な使い方【Automatic1111】

            SoreNutsからのお知らせ 新規記事 3/20に【ComfyUI】ランダムなカラーパターンからイラストを作る方法を公開! 2/28に【ComfyUIでControlNet】img2imgのワークフローの解説を公開! 2/2にComfyUIの保存先を指定する方法を公開! 更新記事 3/21にカメラ・構図のプロンプト(呪文)一覧を更新! Stable Diffusion Web UI(Automatic1111)の拡張機能「AnimateDiff」の使い方です。長尺の動画の作り方、MotionLoRAの併用方法、MP4の書き出しエラーの対処法などを掲載しています。一貫性のある短いアニメーションならこの拡張機能がおすすめです。

            • FreeBSD Memo/FreeNASでSMARTのエラー修復(不良セクタ修復) - ISM PukiWiki

              FreeNASでコンソールに以下のようなエラーが出ていた Device: /dev/sda1 , 1 Offline uncorrectable sectors Device: /dev/ada2 , 1 Currently unreadable (pending) sectors Current_Pending_Sector 現在異常があり、代替処理を待つセクタの総数。もし後で読み込みに成功したセクタがあれば、この値は減少する。 Off-Line Scan Uncorrectable Sector Count オフラインスキャン時に発見された、回復不可能なセクタの総数。この値が増加する場合は、磁気ディスクの表面に明確な問題がある。 エラーを確認 197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 1 198 Off

              • Magic animate論文解説

                世の中の進みが早すぎてついていけません はじめに Animate Anyoneが出てきて数日、まだコードもモデルも公開されていないうちに新しい高精度動画生成手法が発表されました。 名前はMagic animate、TickTok運営元が研究開発した生成モデルとのこと。 しかも今回はモデルもコードも公開されており、すでに誰でも触れる状況にあります。 僕も早速弄り倒そうかと思ったのですが、モデルインプレは別に僕がやらなくても誰かが書くだろうと思い直したので、とりあえず論文から読もうかなと思います。 という訳で今回も速報論文解説をやっていきます(論文紹介の味を占めただけ) 元論文はこちら(https://arxiv.org/pdf/2311.16498.pdf) 論文解説 概要 この研究は、ある特定の動作シーケンス(デモ動画見る限りはセグメント情報を主に使っていそう。ただ機構的にいろいろな動作シ

                  Magic animate論文解説
                • 画像生成AI忘備録 11月号|かたらぎ

                  ホットトピックAnimate Anyone Animatediffなどと同じようにstableDiffusionを基盤に動画生成ができるものです。以前のものより一貫性が高く、一枚の絵から動かせるのが特徴です。まだ、デモやモデルの配布などは行われていませんが期待の持てる技術です。

                    画像生成AI忘備録 11月号|かたらぎ
                  • AnimateDiffで静止画から動画を作る4つの方法

                    1.AnimateDiffで静止画から動画を作る4つの方法まとめ ・AnimateDiffを使って動画を作る手法は直近で大きく進化しており従来手法とかなり動かし方も変わってきている ・直近話題になったAnimateDiffは参照画像を渡す事で動画内の物体の動きを従来より細かく制御できるようになっている ・具体的な動かし方は様々な人が様々な手法を試行錯誤している段階。現時点で判明している動かし方を可能な限りまとめた 2.AnimateDiffとは? アイキャッチ画像は2023年9月8日に亡くなった寺沢武一さんの代表作コブラ。実は劇場版コブラは当時若手だった宮崎駿監督が数カットだけですが原画を担当しているとの事 AnimateDiffは「画像生成AIを使って作った静止画」に動きを与える事ができるツールです。 AIを使って動画を作成するツールは他にもありますが、AnimateDiffは、他のツー

                      AnimateDiffで静止画から動画を作る4つの方法
                    • 【AIアニメ】ComfyUI AnimateDiffでダンス動画のvid2vid変換を試す|Baku

                      前回の記事では、AI動画生成ツールのAnimateDiffとControlNet Tileを使って、2つの画像をつなぐ中割動画を生成してみました。 今回は、ControlNetのOpenposeとDepthを組み合わせて、元動画をアニメ・実写など色々なトーンの動画に変換できるVideo-to-Video(Movie-to-Movie)を試します。 1. 必要な準備ComfyUI内のフォルダに導入しておく必要があるものは以下の通りです。 カスタムノード 次の3つを使います。 ComfyUI-AnimateDiff-Evolved(ComfyUI用AnimateDiff) ComfyUI-Advanced-ControlNet(ControlNet拡張機能) ControlNet Auxiliary Preprocessors(プリプロセッサー) ComfyUI Managerを使っている場合

                        【AIアニメ】ComfyUI AnimateDiffでダンス動画のvid2vid変換を試す|Baku