What you imagine is what ViduUse the best video generation model to unlock unlimited possibilities to inspire your creativity
MusePose: a Pose-Driven Image-to-Video Framework for Virtual Human Generation. Zhengyan Tong, Chao Li, Zhaokang Chen, Bin Wu†, Wenjiang Zhou (†Corresponding Author, benbinwu@tencent.com) Lyra Lab, Tencent Music Entertainment github huggingface space (comming soon) Project (comming soon) Technical report (comming soon) MusePose is an image-to-video generation framework for virtual human under contr
コードは以下のとおりです。 %cd /content !git clone -b dev https://github.com/camenduru/MagicAnimate-hf !pip install -q diffusers==0.21.4 transformers==4.32.0 accelerate==0.22.0 omegaconf==2.3.0 einops==0.6.1 av gradio !pip install -q https://download.pytorch.org/whl/cu118/xformers-0.0.22.post4%2Bcu118-cp310-cp310-manylinux2014_x86_64.whl !apt -y install -qq aria2 BaseModelUrl = "https://huggingface.co/runwayml
この記事は、「AnimateDiffをComfyUI環境で実現する。簡単ショートムービーを作る」に続く、KosinkadinkさんのComfyUI-AnimateDiff-Evolved(AnimateDiff for ComfyUI)を使った、AnimateDiffを使ったショートムービー制作のやり方の紹介です。今回は、ControlNetを使うやり方を紹介します。ControlNetと組み合わせることで、制御できることの幅が一気に広がります。 AnimateDiff for ComfyUIは、ControlNetに対応しています。ただし、使い方に少し癖があり、公式ページではあまり詳しく解説が行われていないため、引っかかりやすい状態になっています。この記事は、公式ページを補完する目的で書いています。 Control Net付きのサンプルワークフロー サンプルのワークフローを含んだ画像がい
ControlNetでAnimateDiffをコントロールするやつの設定についてです。 自分の設定例を載せておきます。 ControlNetとAnimateDiffが使用できることが前提です。 基本設定 サンプラーはDPM2 Karrasを使っています。DDIMがいいという情報もあります。この辺はまだあまり試せていません。 AnimateDiffのモデルはv14です。 Enable AnimateDiffをチェックすると、AnimateDiffが実行されるモードになります。hook.pyを差し替えていれば、ControlNetもAnimateDiffに対応するようになります。 チェックされていない場合、ControlNetは従来通りの動作をするはずです。 Tileの設定 Tileを2個使うことができます。番号が小さい方が開始フレーム、大きい方が終了フレームをコントロールします。1個の場合は
sakugabooru - a booru dedicated to sakuga videos and images
画像生成AI「Stable Diffusion」はプロンプトあるいは呪文と呼ばれる入力した文章から画像を自動で生成することができます。このStable Diffusionで生成した画像をフレームにしたアニメーションを生成できる「Deforum」を、ウェブUIの決定版といえるAUTOMATIC1111版Stable Diffusion web UIの拡張機能で追加できるようになったので、実際にアニメーションを生成してみました。 deforum/deforum_stable_diffusion – Run with an API on Replicate https://replicate.com/deforum/deforum_stable_diffusion GitHub - deforum-art/deforum-for-automatic1111-webui: Deforum exte
「Deforum Diffusion」と「Waifu Diffusion」によるAI動画生成を試したので、手順をまとめました。 ・Deforum Stable Diffusion v0.4 ・Waifu Diffusion v1.2 1. Deforum Stable Diffusion「Deforum Stable Diffusion」は、「Stable Diffusion」でズームやシフトさせながら画像生成を繰り返すことで、印象的な動画を作成できるColabノートブックです。 以下のColabノートブックを開いて、上から順番に実行していくことで動画生成することができます。 ・Deforum Stable Diffusion v0.4 2. Setup(1) 「NVIDIA GPU」のセルを実行。 Colabに割り当てられたGPUの情報が表示されます。 Tesla P100-PCIE-1
1.はじめに 文から画像生成をするモデルを使って、出力画像をズームやシフト等をさせ、それを初期値にして文で画像生成することを繰り返すと面白い動画が出来ます。今回ご紹介するのは deforum氏が開発した Stable Diffusion を使った動画生成をするGoogle Colabです。 2.学習済みパラメータのダウンロード まず学習済みパラメータをダウンロードします。Hugging Faceからアクセストークンの取得をしてない方は、このブログの「2.アクセストークンの取得」を参考に取得してから下記に進んで下さい。 このリンクをクリックし、学習済みパラメータ(stable-diffusion-v-1-4-original)の使用申請をします。I have read the Licence and agree with its terms のチェックボックスにチェックを入れ、Access
JavaScriptライブラリの「GSAPジーサップ」はウェブサイトのモーション制作に役立ちます。GSAPは高機能であり、実行性能が良好で、互換性も高い利点があります。 始点と終点の間を補間することでモーションを実現することは「トゥイーン」と呼ばれます(Betweenが語源のFlash用語)。トゥイーンの機能を提供するJSライブラリは多くの種類が存在しますが、その中でもGSAPは評判が高く、機能の多さでは群を抜いています。当サイトの記事『トゥイーンライブラリの比較検証』でも、類似のライブラリに比べて性能が高いことを確認しています。 旧TweenMax時代から数えてGSAP利用歴15年の筆者が、GSAPのおさえておくべき最低限の使い方から、現場で役立つテクニックを紹介します。 ▼GSAP公式サイト GSAP入門は前後編の2回にわたり解説します。前編では基本的なGSAPの使い方を中心に説明しま
2022年05月02日20:25 海外「どれも完璧に合ってる!」日本含む世界7か国語によるアニメ『SPY×FAMILY』の吹き替えに対する海外の反応 カテゴリ日本語アニメネタ sliceofworld Comment(148) ©遠藤達哉/集英社・SPY×FAMILY製作委員会 アニメ『SPY×FAMILY』は日本のみならず世界中で人気となっていて多国語吹替もされています。日本含む世界7か国語によるアーニャの「わくわくっ!!」の比較動画を見た海外の反応です。 Anya saying "waku waku" in 7 different languages | Spy X Family Multilanguage 引用元:動画のコメント スポンサードリンク ●comment知恵ある者はこういった。”可愛さに言葉は必要ない”と。 ●commentポルトガル語とスペイン語が良かった。 ●comm
Historical expertise provided by Jerry Beck, Amelia Cook, Jason DeMarco, Maureen Furniss, Monique Henry-Hudson, Willow Catelyn Maclay, Linda Simensky, Koji Yamamura Entries by Rebecca Alter, Elly Belle, Kambole Campbell, Jen Chaney, Amelia Cook, Alex Costello, Marley Crusch, Toussaint Egan, Christopher L. Inoa, Genevieve Koski, Willow Catelyn Maclay, Rafael Motamayor, Sammy Nickalls, Joshua Rivera
今日では、ほぼすべてのウェブサイトにアニメーションが使われていると言っても過言ではないでしょう。派手な3Dアニメーションから、UIのマイクロインタラクションまで、その物量や時間のスケールはさまざまです。 アニメーション技術もCSSやSVG、Canvasと多岐に渡り、こんな表現まで!? と驚くようなものも増えました。 しかし、複雑なアニメーションになるほどコードは煩雑になり人間の手には負えなくなります。イメージはあるのに具現化できない! そんな悔しい思いを抱えたまま諦めるしかないのでしょうか? いえ、道具です。道具を使うのです。本記事ではイメージをダイレクトに表現する手段としてのアニメーションライブラリGSAP 3について紹介します。 本記事を読むことで、以下の知識が手に入ります ウェブにおけるアニメーションの重要性 アニメーションライブラリとは? 強力なアニメーションライブラリGSAP 3
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く