並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 70件

新着順 人気順

ComfyUIの検索結果1 - 40 件 / 70件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

ComfyUIに関するエントリは70件あります。 AI画像人工知能 などが関連タグです。 人気エントリには 『画像生成AI「Stable Diffusion」使うなら「ComfyUI」のワークフローが便利です (1/4)』などがあります。
  • 画像生成AI「Stable Diffusion」使うなら「ComfyUI」のワークフローが便利です (1/4)

    プロンプト:1 girl, photorealistic, solo, perfect lighting, sailor dress, looking at viewer, long hair, black hair, two side up, ネガティブプロンプト:illustration, 3d render, (worst quality:2), (low quality:2), (normal quality:2), signature, watermark, username, open mouth

      画像生成AI「Stable Diffusion」使うなら「ComfyUI」のワークフローが便利です (1/4)
    • AIアニメの作りかた ComfyUI|852話

      AIアニメの作り方を説明していきます。 ざっくりな説明は上の動画を見ていただければわかるんですが、 少し細かい説明がこの記事になります。 完成物これはワンダープロジェクトJ2というゲームの二次創作アニメですが、30年近く前の作品です。 今回の流れは ・AIの一枚立ち絵を用意する ・AnimateAnyone-Evolvedで骨に沿って動かす ・AAEでつくった画像をControlnetをかけつつAIブラッシュアップ ・AfterEffectsで背景抜き ・AI背景一枚絵を用意する ・Runwayで動かす(ComfyUIでもできるが質がいいし時短になる) ・キャラの後ろに配置、キャラの画像を複製して影にして足元に配置 ・完成 です。 作業はComfyUIで行います。 ・AIの一枚立ち絵を用意する ・AnimateAnyone-Evolvedで骨に沿って動かす 骨を抜いたのはこちらのフリー動画

        AIアニメの作りかた ComfyUI|852話
      • 画像生成ソフトウェア「ComfyUI」のノードにキーロガーが仕込まれていたことが発覚、クレジットカード情報やパスワードなど全ての入力が筒抜けに

        ノードベースの画像生成ソフトウェア「ComfyUI」向けに作られたノードの一つ「ComfyUI_LLMVISION」にマルウェアが仕込まれていることがわかりました。発覚後、ComfyUI_LLMVISIONのGitHubリポジトリが削除されています。 PSA: If you've used the ComfyUI_LLMVISION node from u/AppleBotzz, you've been hacked byu/_roblaughter_ incomfyui クリエイターのロブ・ラフター氏がRedditで共有したところによると、ComfyUI_LLMVISIONをインストールして使用した場合、ブラウザのパスワード、クレジットカード情報、閲覧履歴がWebhook経由でDiscordサーバーに送信されてしまうとのこと。 ラフター氏自身も影響を受け、ComfyUI_LLMVISIO

          画像生成ソフトウェア「ComfyUI」のノードにキーロガーが仕込まれていたことが発覚、クレジットカード情報やパスワードなど全ての入力が筒抜けに
        • 画像生成AI「Stable Diffusion」使い倒すならコレ! 「ComfyUI」基本の使い方 (1/3)

          前回はStable Diffusionをブラウザーで利用するためのUIとして「Stable Diffusion web UI(AUTOMATIC1111版)」、「Fooocus」と共に多く使われている「ComfyUI」のインストール方法を紹介した。とりあえず画像の生成はできたので、あらためてインターフェースを詳しく見ていこう。 まずは前回の手順に従いインストールした「ComfyUI」を起動。この画面が出ていなければ「Load Default」をクリックしよう。 いくつかの四角いパーツが、カラフルなケーブルのようなもので接続されているのが見える。 ComfyUIでは配置されたそれぞれのパーツを「ノード」と呼ぶ。それぞれのノードは「モデルをロードする」「プロンプトを書く」といった機能を持っている。これらをブロックのように組み合わせて利用したい機能を構築していくのが「ノードベース」と呼ばれるCo

            画像生成AI「Stable Diffusion」使い倒すならコレ! 「ComfyUI」基本の使い方 (1/3)
          • 画像生成AI「Stable Diffusion」を使い倒す! モジュラーシンセみたいな「ComfyUI」をインストール (1/3)

            sponsored MSI「MAG X870 TOMAHAWK WIFI」レビュー Ryzen 7 9800X3Dで高性能ゲーミングPCを組みたいならX870マザーボードは耐久性能と程よい価格で選べば間違いなし sponsored 店舗スタッフが自作パソコン完成まで徹底サポート 業界最安値級から2万円引き!? 普通に買うよりお得・手ブラでPCが組めるアプライドの自作イベント sponsored 2004年から業界をリード! マウスコンピューターのゲーミングPCブランド「G TUNE」が20周年を迎えた 【今売れているゲーミングPCのスペックはコレ!】「G TUNE」で見る最新ゲーミングPCの最先端 sponsored JN-IPS27G200F-PPをレビュー 約2.6万円のパープル200Hzゲーミングディスプレー、女性的にはアリ? 盲牌でわかるボタンとは? sponsored 黒くてデカ

              画像生成AI「Stable Diffusion」を使い倒す! モジュラーシンセみたいな「ComfyUI」をインストール (1/3)
            • Macで始める画像生成AI 「Stable Diffusion」ComfyUIの使い方 (1/5)

              突然だが、上記はこの連載の第2回の冒頭部分だ。連載をはじめた当初は右も左もわからない状態だったので「Stable DiffusionはMacでは使えない」と断言してしまった。思い出すたびに冷や汗が出る。 とはいえご存知の通りStable Diffusionを動かすのにNVIDIAビデオカード搭載のWindows機が向いているのは事実なので、これまではすべて新規購入したゲーミングPCで作業することになんの不満も感じていない。 だが、前回紹介したStable DiffusionのUI環境のインストールや更新がワンクリックで可能になる「Stability Matrix」を使えば、PythonやPipのバージョンといった難しいことを考えなくてもMacで画像生成環境を作れるのではないかと考えた。 お詫びから7ヵ月、ずいぶん遅くなったがようやく伏線回収である。 Stability MatrixでM1

                Macで始める画像生成AI 「Stable Diffusion」ComfyUIの使い方 (1/5)
              • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第17回:新技術をすぐ試せるComfyUIのインストール・使いかた (西川和久) | テクノエッジ TechnoEdge

                ComfyUIが流行ってる?Stable Diffusionで生成AI画像を作る時、もっとも一般的なインターフェースはAUTOMATIC1111だろう。デファクトスタンダードと言ってもいいほどで、検索すると、インストール方法や使い方など、それこそ山盛り出てくる。 ところが最近、ComfyUIがちょっとした人気だ。以前軽くご紹介したが、カスタムNodeを組み合わせ自由にWorkflowを構築できる結構マニアックなアプリなのに何故? ComfyUI。カスタムNodeを接続してWorkflowを作る…と結構マニアックなアプリ。これは筆者が日頃使っているWorkflowの1つこれには理由があり、12月頃から以降、Stable Video Diffusion、Kohya's HiresFix、SDXL Turbo、LCM、FaceID、PhotoMaker、InstantID、様々なControlN

                  生成AIグラビアをグラビアカメラマンが作るとどうなる?第17回:新技術をすぐ試せるComfyUIのインストール・使いかた (西川和久) | テクノエッジ TechnoEdge
                • 【西川和久の不定期コラム】 ComfyUIのWebUIを作りました!普段使うWorkflowが固定ならこの方が見やすいかも!?

                    【西川和久の不定期コラム】 ComfyUIのWebUIを作りました!普段使うWorkflowが固定ならこの方が見やすいかも!?
                  • 【AIアニメ】ComfyUIでAnimateDiffをはじめよう!|Baku

                    ※当noteで掲載しているワークフローについては各記事公開時点のComfyUI環境で動作を確認しています。その後のComfyUI/カスタムノードのアップデートにより最新の環境では不具合が生じる可能性があるので、あらかじめご了承ください。 このnoteは、いま注目されているAI動画生成ツール「AnimateDiff」のハウツーをまとめた初心者ガイドです。 「AnimateDiff」は2023年7月に公開されたオープンソースの技術で、誰でも無償で利用することができます。AnimateDiffについては以下の記事が参考になります。 導入編1. ComfyUI のすすめ「AnimateDiff」は、単体では細かなコントロールが難しいため、現時点では以下のパッケージのどれかを選んで使うことが多いです。 AnimateDiff-CLI-Prompt-Travel コマンドラインでAnimateDiff

                      【AIアニメ】ComfyUIでAnimateDiffをはじめよう!|Baku
                    • 生成AIグラビアをグラビアカメラマンが作るとどうなる? 第22回:Stable Diffusion 3リリース。ComfyUIを使いAPI経由で生成(西川和久) | テクノエッジ TechnoEdge

                      API経由ながらStable Diffusion 3が利用可能に!今年、2024年2月24日に次世代Stable Diffusion、Stable Diffusion 3が発表された。いろいろな特徴があるのだが、画像品質の向上はもちろんのこと、Stable Diffusion (XL) が苦手だった文字 (但し日本語などは除く) にも対応し、早く使いたかったものの、まだ一般が試せる状態ではなかった。 ところがつい先日の4月17日、Stability AI Developer PlatformのAPI経由で利用可能となったので、使ってみたのが今回の内容となる。 APIを使うにあたって必要なAPI Keyは、Stability AI にアカウントを作ると用意され、自動的に24クレジットが付加される。1枚作って消費するクレジットは以下の通り。 Stable Diffusion 3は1枚6.5クレ

                        生成AIグラビアをグラビアカメラマンが作るとどうなる? 第22回:Stable Diffusion 3リリース。ComfyUIを使いAPI経由で生成(西川和久) | テクノエッジ TechnoEdge
                      • ComfyUI 解説 (wiki ではない)

                        Stable Diffusion の web UI でありバックエンドでもある ComfyUI について、主にアーティスト向けに、内部動作や背景にある理論も含めて感覚的に捉えられるように解説していきます。 (充実しつつある公式 README や公式サンプルに書いてあることは、多分このサイトでは説明しません) 重要な外部リンク ComfyUI 公式リポジトリ ComfyUI 公式サンプル ComfyUI 公式チュートリアル (未完らしい) 有志によるマニュアル (ほぼ準公式) 最近の主な更新 公式に取り込まれた: ConditioningConcat 新ノード: ConditioningZeroOut SDXL 関連のノード追加: CLIPTextEncodeSDXL、CLIPTextEncodeSDXLRefiner モデルの保存が出来るようになった: CheckpointSave SDX

                        • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第21回:ComfyUI応用編。ControlNetでポーズ・構図を指定する (西川和久) | テクノエッジ TechnoEdge

                          現役グラビアカメラマンでありエンジニアでもある西川和久氏による生成AIグラビア連載の第21回は、画像生成モデル Stable Diffusionの最新技術がいち早く試せるインターフェース 『ComfyUI』 の応用編。 写真や線画をもとに構図やポーズを指定できる『ControlNet』の具体的な使い方を解説してゆきます。 『生成AIグラビアをグラビアカメラマンが作るとどうなる?連載』

                            生成AIグラビアをグラビアカメラマンが作るとどうなる?第21回:ComfyUI応用編。ControlNetでポーズ・構図を指定する (西川和久) | テクノエッジ TechnoEdge
                          • GitHub - comfyanonymous/ComfyUI: The most powerful and modular diffusion model GUI, api and backend with a graph/nodes interface.

                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                              GitHub - comfyanonymous/ComfyUI: The most powerful and modular diffusion model GUI, api and backend with a graph/nodes interface.
                            • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第18回:バレンタイン編。ComfyUIの環境を整える (西川和久) | テクノエッジ TechnoEdge

                              今回追加する要素は3つ。 1つはa1111-sd-webui-tagcompleteの様に、Prompt入力途中でキーワードなどの候補を上げてくれる機能。基本的にPromptは英語。ミススペル防止や、途中まで入れるといろいろな候補が並び、こんなのあるのか!的な発見もできる。 次に入れるのはWorkflow管理系。処理したい内容によって毎回ComfyUIへjsonファイルをドラッグ and ドロップするのは面倒。Workspaceに分けて置きっぱできる機能だ。 最後はリソースモニタ。WindowsやLinuxでこの手のモニタ系アプリはあるが、やはりComfyUI内で見えた方が便利。同時に痒い所に手が届くNodeも追加される。 各カスタムNodeのインストール方法は、メジャーどころはComfyUI-Managerの一覧に入っているので[Install Custom Node]を選び、左側のFi

                                生成AIグラビアをグラビアカメラマンが作るとどうなる?第18回:バレンタイン編。ComfyUIの環境を整える (西川和久) | テクノエッジ TechnoEdge
                              • ComfyUI で Stream Diffusion を動かす|.com

                                0. はじめに先日 Stream Diffusion が公開されていたみたいなので、ComfyUI でも実行できるように、カスタムノードを開発しました。 Stream Diffusionは、連続して画像を生成する際に、現在生成している画像のステップに加えて、もう次の生成のステップを始めてしまうというバッチ処理をするそうです。 学者ではないので、詳しくはわかりませんが、上記のようなことを公式のYouTubeチャンネルでお話しされていたみたいなので、興味のある方はのぞいてみてください。 実際のリポジトリをのぞいてみると、Diffusers を使って書かれていたため、そのままではカスタムノードにできないので、いっそ Diffusers をComfyUIで使えるようにして、それを使って Stream Diffusion を動かそうという魂胆のもと、開発しました。 この記事以降も開発は続けますので、

                                  ComfyUI で Stream Diffusion を動かす|.com
                                • 便利なノードベースのウェブUI「ComfyUI」の使い方まとめ【Stable Diffusion】

                                  を一通りまとめてみるという内容になっています。 Stable Diffusionを簡単に使えるツールというと既に「Stable Diffusion web UI」などがあるのですが、比較的最近登場した「ComfyUI」というツールがノードベースになっており、処理内容を視覚化できて便利だという話を聞いたので早速試してみました。 ここではこのComfyUIについて 概要と主な特徴 簡単なインストール方法 基本的な使い方 などを書いていきますね。 ※2023/08/08追記: ComfyUIでStable Diffusion XLモデルを動かす方法を解説した記事を書きました。

                                    便利なノードベースのウェブUI「ComfyUI」の使い方まとめ【Stable Diffusion】
                                  • 人気の画像生成AIツール「ComfyUI」デスクトップアプリがめっちゃラク 初心者にオススメ (1/6)

                                    2024年10月21日、この連載でも何度か紹介している画像生成AIツール「ComfyUI」が大幅アップデートを受け、「ComfyUI V1」としてリリースされた。 このバージョンでは、従来のブラウザーベース形式を引き継ぎつつ、インストールが簡単な「ComfyUI Desktop(以下デスクトップ版)」を新たに追加。Python環境の構築が不要となり、初心者でも簡単に利用できるようになった。 当初はクローズドベータ版として限られたユーザーのみが利用できたが、11月27日には一般公開され、誰でも無料で利用可能になった。さっそくインストールして、新機能を確認してみよう。 ComfyUI Desktopとは? デスクトップ版「ComfyUI Desktop」は、「ComfyUI V1」の一部として新たに提供されたインストール型アプリケーション。200MB以下という軽量パッケージで提供され、Wind

                                      人気の画像生成AIツール「ComfyUI」デスクトップアプリがめっちゃラク 初心者にオススメ (1/6)
                                    • 【西川和久の不定期コラム】 話題のFLUX.1をComfyUIで画像生成してみる!基本系とControlNetのWorkflow(json)公開

                                        【西川和久の不定期コラム】 話題のFLUX.1をComfyUIで画像生成してみる!基本系とControlNetのWorkflow(json)公開
                                      • 【ComfyUI 中級】 VRAM を制御して最高の性能を引き出す設定!|きまま / Easygoing

                                        はじめにこんにちは、きまま / Easygoing です。 今回は ComfyUI 中級編で、ComfyUI のベストなセッティングを考えます。 初級編 ComfyUI は速い!私が Stable Diffusion webUI Forge から ComfyUI に移行したとき、最初に驚いたのは 動作の速さ でした。 それまで使っていた Stable Diffusion webUI Forge も軽快に動作していましたが、ComfyUI は工程がリアルタイムで表示されて 常に VRAM と RAM の使用量を確認 できるので、さらに最適化を行うことができます。 ComfyUI は、最適なセッティングを行えば、Flux.1 / SD 3.5 / AuraFlow は VRAM 12GB、SDXL は VRAM 6 GB で動作します! ここから、ComfyUI の設定のベストプラクティスを探

                                          【ComfyUI 中級】 VRAM を制御して最高の性能を引き出す設定!|きまま / Easygoing
                                        • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第19回:ComfyUIで最新のStable Cascadeを試す+アナログ風の後処理ProPost (西川和久) | テクノエッジ TechnoEdge

                                          画像生成AI「Stable Diffusion」の基本から最新テクニックまで。グラビアカメラマンが教える、生成AIグラビア実践ワークショップ(第5回)参加者募集 | テクノエッジ TechnoEdge 後処理でアナログ写真っぽく=ProPost前回標準のWorkflowにLoRAを追加してみたが、今回は画像が出来た後、つまり後処理用のNodeを追加してみたい。 好みにもよるだろうが、筆者の場合、Promptでアナログフィルム固有のノイズ(Grain)を乗せたり、モノクロ化せず、Photoshopなどを使い処理することが多い。これをNodeで対応できるのが、ご紹介するProPostだ。 機能的には、GrainとVignette。どちらも独立したNodeになっているので、Grainした後にVignetteすることも可能。 インストール方法は簡単で、Manager > Install Custo

                                            生成AIグラビアをグラビアカメラマンが作るとどうなる?第19回:ComfyUIで最新のStable Cascadeを試す+アナログ風の後処理ProPost (西川和久) | テクノエッジ TechnoEdge
                                          • ルックバック騒動について|榊正宗@Blender&ComfyUI

                                            こんにちは。映像作家で小説家の榊正宗です。 ルックバックという作品が話題になってますよね。最初は「作品の完成度の高さ」から、そして今は、「作中の犯罪描写と書き直しについて」が話題になっています。 今日はこの騒動についてわたしの個人的な見解を書きたいと思います。 🔳ルックバック騒動について 今回、下記の部分が修正されたことがとくに話題になっているようです。この件を説明するために、該当箇所をあえて画像でアップして引用しております。(問題がありましたら削除しますので権利者からご連絡お願いします) ネットでは、こちらの内容が変更されたことについて、その経緯と意義が議論されているようです。 まず、わたしの意見を書く前に、わたしがどういう人間か説明しておきたいと思います。 わたしは、2年前にネットの誹謗中傷事件に巻き込まれ、うつ病を発症し、5ヶ月間ほど閉鎖病棟に入院したことがあります。自殺も考えまし

                                              ルックバック騒動について|榊正宗@Blender&ComfyUI
                                            • 【初心者歓迎】FLUX.1 dev の使い方❗️LoRA・Controlnetも使える、キング・オブ・画像生成AI『FLUX.1』のベストモデル、[dev]をComfyUIで動かす方法を完全解説❗️〜S|葉加瀬あい (AI-Hakase)🎈動画&Note でAI解説🎥https://x.gd/F2Mvl

                                              FLUX.1の使い方:おうちのパソコンでもクラウドでもOK!実践ガイドで画像生成AIをマスターしよう! どうも皆さん!スーパーの袋詰め、レジのお姉さんのスピードについていけない葉加瀬あいです! 今回は、話題の画像生成AI「FLUX.1 dev」を、あなたのPCやクラウド環境で使う方法を解説していきます! また、私のメンバーシップに入門されている方は、今回の記事の内容を動画で確認できます!スキマ時間で最新のAI情報を手軽にキャッチしたい方はこちらからどうぞ! 前回の記事では、FLUX.1の概要やその驚きの性能についてご紹介しましたよね。 あのStable Diffusionを作ったチームが開発したとあって、AI業界でも大きな注目を集めているんです! 前回のおさらい:FLUX.1ってどんなAI?前回の記事では、FLUX.1の基礎知識をお届けしました。 簡単に振り返ると、 Midjourneyや

                                                【初心者歓迎】FLUX.1 dev の使い方❗️LoRA・Controlnetも使える、キング・オブ・画像生成AI『FLUX.1』のベストモデル、[dev]をComfyUIで動かす方法を完全解説❗️〜S|葉加瀬あい (AI-Hakase)🎈動画&Note でAI解説🎥https://x.gd/F2Mvl
                                              • 今から始めても遅くない!ComfyUI初心者ガイド - ①環境構築と基本操作|とーふのかけら

                                                はじめに前回、初めて私の記事でComfyUIを取り上げましたが、FLUX.1のモデルマージという、ComfyUIを触ったことがある人向けの内容となりました。 この記事では、初心者の方には取っ付きにくい内容となってたと思います。 そこで、ComfyUIを始めるにあたって、必要となる最低限の環境構成と、基礎的な知識を学んでいきたいと思います。 出来る限り分かりやすく説明していって、皆さんが扱えるようなれれば幸いです。 ComfyUIとは?誰でもわかる!を心掛けて書いていくので、難しいことは今回言いません! ComfyUIの読み方は「コンフィユーアイ」、アメリカ英語的発音になると「(↑)カンフィ(↓)ユーアイ」になります。 Comfyは元々「Comfortable」の略語で、日本語訳としては「快適な、簡単な、楽な」という意味になります。 と、どうでもいいお話を踏まえて説明していきます。 Comf

                                                  今から始めても遅くない!ComfyUI初心者ガイド - ①環境構築と基本操作|とーふのかけら
                                                • GitHub - AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin: A user-friendly plug-in that makes it easy to generate stable diffusion images inside Photoshop using either Automatic or ComfyUI as a backend.

                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                    GitHub - AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin: A user-friendly plug-in that makes it easy to generate stable diffusion images inside Photoshop using either Automatic or ComfyUI as a backend.
                                                  • 【ComfyUI】Stable Diffusion3 Mediumをローカル環境で動かす方法|AI-Bridge Lab

                                                    1.SD3 Mediumで生成した画像例ゲーム風、実写風、アニメ風…幅広く対応できます。また、プロンプトの効きもかなり強いので色々と試行錯誤の甲斐がありそうです。 ベースモデルでこれだけ高い性能があれば、ファインチューニングモデルはクオリティ面でもMidjourneyに並ぶかそれ以上のモデルになりそうですね。 FPSゲーム画面風雑誌モデル風テレビアニメ風その他、過去記事でSD3のAPIを使って作成した画像はこちらからご覧いただけます。 ・stable-diffusion-3-mediumからモデルをDL 以下からいずれかをダウンロードしておきます。 sd3_medium.safetensors MMDiT および VAEモデルが含まれますが、テキスト エンコーダーは含まれません。 sd3_medium_incl_clips_t5xxlfp16.safetensors T5XXL テキスト

                                                      【ComfyUI】Stable Diffusion3 Mediumをローカル環境で動かす方法|AI-Bridge Lab
                                                    • 榊正宗はガチャ禁止法案の成立を支持します!|榊正宗@Blender&ComfyUI

                                                      突然ですが、ガチャ禁止法案の成立を支持します! 「ゲーム1日60分は“違憲” 男子高校生と母親が提訴 」という香川県の条例に対して裁判を起こした高校生のニュースが話題になってますよね。 https://www.fnn.jp/articles/-/90783?fbclid=IwAR0FTM86t9aoMjsXAulFAyMbB9VIgvJuUh-0rIvy-oFiSsVz-2FKlG1XWJs いきなりタイトルと逆の事を言いますが、この香川県の条例は流石におかしいと思います。というか絶対におかしい。なんで、プレイヤー側に対して規制してるのかと。これは、麻薬もそうなんですけど、売ってる側を主に罰しろよと言いたい。 この条例については私も絶対に反対です。 たしかにゲームは依存症を引き起こします。というか、そうなるように設計して作ります。ゲームクリエイターとして言いますが、面白いゲームってのは、そ

                                                        榊正宗はガチャ禁止法案の成立を支持します!|榊正宗@Blender&ComfyUI
                                                      • ローカル生成の環境構築は「StabilityMatrix」 a1111、Forge系、ComfyUIを一発導入・一括管理|AIイラストが理解る!【スタジオ真榊】|pixivFANBOX

                                                        こんばんは、スタジオ真榊です。こちらは「StabilityMatrix」という便利なアプリケーションを使って、Automatic1111版のStableDiffusionWebUI(以下SDwebUI)やForge、reforge、ComfyUIといったローカル生成環境を一発導入・一括管理する方法についてまとめたHowto記事です。 AIイラストの初心者向け解説については「AI...

                                                          ローカル生成の環境構築は「StabilityMatrix」 a1111、Forge系、ComfyUIを一発導入・一括管理|AIイラストが理解る!【スタジオ真榊】|pixivFANBOX
                                                        • AnimateDiffにComfyUI環境でのControlNetを適応する|Alone1M

                                                          この記事は、「AnimateDiffをComfyUI環境で実現する。簡単ショートムービーを作る」に続く、KosinkadinkさんのComfyUI-AnimateDiff-Evolved(AnimateDiff for ComfyUI)を使った、AnimateDiffを使ったショートムービー制作のやり方の紹介です。今回は、ControlNetを使うやり方を紹介します。ControlNetと組み合わせることで、制御できることの幅が一気に広がります。 AnimateDiff for ComfyUIは、ControlNetに対応しています。ただし、使い方に少し癖があり、公式ページではあまり詳しく解説が行われていないため、引っかかりやすい状態になっています。この記事は、公式ページを補完する目的で書いています。 Control Net付きのサンプルワークフロー サンプルのワークフローを含んだ画像がい

                                                            AnimateDiffにComfyUI環境でのControlNetを適応する|Alone1M
                                                          • ComfyUI技術指南書 Vol.1 | ComfyUIでFramePackを使ってみる|とーふのかけら

                                                            今回もComfyUIに関して新しい章になります! 初心者ガイドの枠組みを超えて、ComfyUIを技術観点の習熟から応用していく記事になります。 一発目の応用術は、最近話題のFramePackを使ったComfyUI構築術になります。 基礎知識がないと比較的難しいので、是非ComfyUIの使い方をある程度覚えてから始めるのをお勧めします! FramePackとは、あのイリヤ氏が提唱している動画生成AIへのアプローチ方法です。 従来の動画生成AIでは「ドリフト」と呼ばれる現象が発生し、それが劣化の原因となっていました。 ドリフトとは、次点のフレームを生成するごとにエラーが蓄積し、次第にサンプリングが劣化していく現象のことで、動画生成AIの品質低下の原因となっていました。 これを抑制し、かつ低コストで長尺動画を生成する方法ということでイリヤ氏が提唱している技術が「FramePack」になります。

                                                              ComfyUI技術指南書 Vol.1 | ComfyUIでFramePackを使ってみる|とーふのかけら
                                                            • ComfyUI で FLUX.1 の画像生成とLoRAを試す|npaka

                                                              2. Fluxの画像生成Fluxの画像生成の手順は、次のとおりです。 (1) 「Stability Matrix」で「ComfyUI」をインストールして起動。 起動時のログで「ComfyUI」フォルダのパスを確認できます。 (2) 以下のファイルをダウンロードし「ComfyUI/models/clip/」に配置。 32GB以上のRAMがある場合はfp16が推奨されます。 ・t5xxl_fp16.safetensors (または t5xxl_fp8_e4m3fn.safetensors) ・clip_l.safetensors (3) 以下のファイルをダウンロードし「ComfyUI/models/vae/」に配置。 ・ae.safetensors (4) 以下のファイルをダウンロードし「ComfyUI/models/unet/」に配置。 ・flux1-dev.safetensors ・flu

                                                                ComfyUI で FLUX.1 の画像生成とLoRAを試す|npaka
                                                              • 新しい動画生成AI「HunyuanVideo」をComfyUIで試してみる|SUTO💡

                                                                HunyuanVideoとはまた新しいオープンソースの動画生成AIが発表されていました。その名も「HunyuanVideo」。 これは130億パラメータのビデオ基盤モデルとのことです。ひえ~~~えらい数字! 下記がプロジェクトページです。めちゃ動いている!

                                                                  新しい動画生成AI「HunyuanVideo」をComfyUIで試してみる|SUTO💡
                                                                • ComfyUIのノードを本当に理解する|gcem156

                                                                  ComfyUIの使い方なんかではなく、ノードの中身について説明していきます。以下のサイトをかなり参考にしています。 モデルのロード系 まずはモデルのロードについてみていきましょう。 CheckpointLoader チェックポイントファイルからModel(UNet)、CLIP(Text encoder)、VAEをロードします。UNetのkey名からyamlファイルを推察しているようです。v_predictionかどうかは最後の重みの値でチェックしているみたいです(意味不明ですね)。 LoRALoader LoRAをロードします。patchesという変数に各keyに対応する重み(upやdown等)を保持しておき、KSamplerに入力されると、重みとマージします。そしてCPUに元の重みのバックアップしておき画像出力時に元の重みに戻します。画像生成に対してマージの計算はそこまで大きくないと思う

                                                                    ComfyUIのノードを本当に理解する|gcem156
                                                                  • ComfyUIでSDXLを試してみる

                                                                    StableDiffusion用のUI ノードベースでパイプラインを作って処理を行う というものらしい。 stable-diffusion-web-uiでのSDXLサポートがまだ足りないようで、こちらが使われている記事などをちらほら見かけたので、試してみた。(ComfyUI自体はSD1.X/2.Xにも対応している) インストール pyenv-virtualenvのpython-3.10.11でやってみる。 $ pyenv virtualenv 3.10.11 ComfyUI $ git clone https://github.com/comfyanonymous/ComfyUI && cd ComfyUI $ pyenv local ComfyUI $ pip install torch torchvision torchaudio --extra-index-url https://d

                                                                      ComfyUIでSDXLを試してみる
                                                                    • ComfyUI | Generate video, images, audio with AI

                                                                      The most powerful open source node-based application for creating images, videos, and audio with GenAI. The most powerful open source node-based application for creating images, videos, and audio with GenAI. The most powerful open source node-based application for creating images, videos, and audio with GenAI.

                                                                        ComfyUI | Generate video, images, audio with AI
                                                                      • 【AIアニメ】ComfyUI AnimateDiffでアニメの中割りを作ろう!|Baku

                                                                        前回の記事では、AI動画生成ツールのAnimateDiffと「ControlNet」を組み合わせることで、特定のモーションをアニメで再現しました。 今回は、ControlNetの「Tile」という機能を組み合わせて、2枚の画像を補間するアニメーションの生成を試します。 必要な準備ComfyUI AnimateDiffの基本的な使い方については、こちらの記事などをご参照ください。 今回の作業でComfyUIに導入が必要なカスタムノードなどは以下のとおりです(説明は後述)。 カスタムノード (./custom_nodes/): 以下の2つを使います。 ComfyUI-AnimateDiff-Evolved(ComfyUI用AnimateDiff) ComfyUI-Advanced-ControlNet(ControlNet拡張機能) モーションモジュール (./custom_nodes/Com

                                                                          【AIアニメ】ComfyUI AnimateDiffでアニメの中割りを作ろう!|Baku
                                                                        • ComfyUI Examples

                                                                          ComfyUI Examples This repo contains examples of what is achievable with ComfyUI. All the images in this repo contain metadata which means they can be loaded into ComfyUI with the Load button (or dragged onto the window) to get the full workflow that was used to create the image. A good place to start if you have no idea how any of this works is the: ComfyUI Basic Tutorial VN: All the art is made w

                                                                          • ComfyUI Wan2.1 i2v 動画生成が次々と出てくるね|Yuki

                                                                            この中から、i2vの480pのものを取ってきます。 クルクル回っているやつ で、これをComfyUIにポイっとします。 モデルやもろもろは、こちら。 umt5_xxl_fp8_e4m3fn_scaled.safetensors → models/text_encoders/ wan_2.1_vae.safetensors → models/vae/ wan2.1_i2v_480p_14B_fp8_e4m3fn.safetensors → models/diffusion_models/ clip_vision_h.safetensors → models/clip_vision/ ワークフローのモデルは、bf16になっていますが、ファイルがでかいのでfp8を使います。 では、やってみましょう。 Prompt executed in 667.62 seconds 11分かかった。長い。初回は

                                                                              ComfyUI Wan2.1 i2v 動画生成が次々と出てくるね|Yuki
                                                                            • ComfyUI で IPAdapter + ControlNet を試す|npaka

                                                                              「ComfyUI」で「IPAdapter + ControlNet」を試したので、まとめました。 1. ComfyUI_IPAdapter_plus「ComfyUI_IPAdapter_plus」は、「IPAdapter」モデルの「ComfyUI」リファレンス実装です。メモリ効率が高く、高速です。 ・IPAdapter + ControlNet 「IPAdapter」と「ControlNet」の組み合わせることができます。 ・IPAdapter Face顔を参照画像として設定し、テキストプロンプトを入力することで、「Face Swap」することができます。ノイズ除去を高くすれば、img2img でも動作します。 ・Masking (Inpainting) IPAdapter を領域に適用する最も効果的な方法は、Inpaintワークフローを使用することです。Inpaintには特定のチェックポ

                                                                                ComfyUI で IPAdapter + ControlNet を試す|npaka
                                                                              • GitHub - ltdrdata/ComfyUI-Manager: ComfyUI-Manager is an extension designed to enhance the usability of ComfyUI. It offers management functions to install, remove, disable, and enable various custom nodes of ComfyUI. Furthermore, this extension provides a

                                                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                  GitHub - ltdrdata/ComfyUI-Manager: ComfyUI-Manager is an extension designed to enhance the usability of ComfyUI. It offers management functions to install, remove, disable, and enable various custom nodes of ComfyUI. Furthermore, this extension provides a
                                                                                • ComfyUI : ノードベース WebUI 導入&使い方ガイド|teftef

                                                                                  pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117xformers インストール (この手法は古い手法です、少し下の xformers のインストール手順をお読みください)(2023/07/09 時点で非推奨) こちらから xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl をダウンロードして、 E/ComfyUI の下に入れて、 pip install xformers-0.0.14.dev0-cp310-cp310-win_amd64.whlこれでインストールできます。 2023/07/09 変更 xformers (推奨)続いて、xformers のインストールです。 pip install xformers

                                                                                    ComfyUI : ノードベース WebUI 導入&使い方ガイド|teftef

                                                                                  新着記事