並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 51件

新着順 人気順

ComfyUIの検索結果1 - 40 件 / 51件

ComfyUIに関するエントリは51件あります。 AI人工知能画像 などが関連タグです。 人気エントリには 『ラフさえ描けばイラスト作品ほぼ完成 画像生成AI「FLUX.1 Kontext」LoRAが示す制作の未来 (1/5)』などがあります。
  • ラフさえ描けばイラスト作品ほぼ完成 画像生成AI「FLUX.1 Kontext」LoRAが示す制作の未来 (1/5)

    2025年6月に独Black Forest Labsが画像生成AI「FLUX.1 Kontext [dev](以下、Flux Kontext)」をリリースしてから、その解釈能力の強力さが知られるようになってきました。様々な画風に変換できるなど、単体でも応用範囲は広いのですが、専用LoRAを使うことで、さらに高い精度で様々な表現を発揮します。筆者が独自に制作したLoRAの作り方も含めて、その可能性の一端をご紹介します。 ※記事配信先によっては図版や動画等が正しく表示されないことがあります。その場合はASCII.jpをご覧ください 「Google Earth」のLoRAが話題に 7月に話題になったのが、イギリス人デザイナーのイスマイル・セレイト(Ismail Seleit)さんが公開した、Google Earthのスクリーンショットをリアルにする「RealEarth-Kontext LoRA」

      ラフさえ描けばイラスト作品ほぼ完成 画像生成AI「FLUX.1 Kontext」LoRAが示す制作の未来 (1/5)
    • 画像・動画生成AIの常識が変わる、Claude Codeに全部やらせる方法論 (1/4)

      AnthropicのAIエージェント環境「Claude Code」の席巻が続いています。Claude Codeは、プログラミング領域で最も注目を集めていますが、AIエージェントとして、汎用的な能力も持っています。その一つとして、Claude Codeを使って、ローカルPC用の画像・動画AI用のディファクトスタンダードの「ComfyUI」を操る方法をご紹介します。すでにAI用のプロンプトは、人間が設計するよりも、AIに設計させたほうがより優れた結果を生み出しやすいという状況に変わりつつあります。Claude Codeを活用することで、画像AIから動画AIまでをまとめて制御することができます。 ※記事配信先の設定によっては図版や動画等が正しく表示されないことがあります。その場合はASCII.jpをご覧ください Claude Code×ComfyUI 2024年6月にComfyUIが独立して以来

        画像・動画生成AIの常識が変わる、Claude Codeに全部やらせる方法論 (1/4)
      • AIっぽくない実写風画像を作れる画像生成AI「Qwen-Image-2512」が登場、無料で使えて日本語での指示も可能

        AlibabaのAI研究チームであるQwenが画像生成AIモデル「Qwen-Image-2512」を2025年12月31日に公開しました。Qwen-Image-2512はAI生成画像っぽくない実写風画像を生成できることを大きな特長としています。すでにモデルをダウンロードしてローカルで実行可能になっていたので、実際に使ってみました。 Qwen-Image-2512: Finer Details, Greater Realism https://qwen.ai/blog?id=qwen-image-2512 従来のQwen-Image(左)とQwen-Image-2512(右)で同じプロンプトから生成した画像が以下。従来のQwen-Imageだと美顔フィルターを適用したような見た目になってAIっぽさがにじみ出していましたが、Qwen-Image-2512では顔も照明の当たり具合もリアルになって

          AIっぽくない実写風画像を作れる画像生成AI「Qwen-Image-2512」が登場、無料で使えて日本語での指示も可能
        • 画像生成AIをPCで簡単に実行できる「ComfyUI」のインストール手順&最初の画像を生成するまでの手順まとめ - GIGAZINE

          ComfyUIは画像生成AIや動画生成AIをPCでローカル実行できるアプリです。NVIDIAや各種AIモデルの開発企業と協力して「新モデルの即日対応」や「NVIDIA製GPUやAMD製GPUへの最適化」も行っており、記事作成時点で画像や動画の生成を始めるなら第一候補としてオススメできるアプリとなっています。数年前まではインストール時にコマンド操作が必要だったり複雑なノード操作が必要だったりしましたが、アップデートによってクリック操作だけでインストールできるようになっており、UIを簡略化する仕組みも導入されました。ゲーミングPCなどのグラフィックボード搭載PCなら簡単に画像生成を始められるので、最初の一歩の手助けとなるようにインストールと最初の生成までの手順をまとめてみました。 ComfyUI | Generate video, images, 3D, audio with AI https

            画像生成AIをPCで簡単に実行できる「ComfyUI」のインストール手順&最初の画像を生成するまでの手順まとめ - GIGAZINE
          • 【画像生成AI】Stable Diffusion webUI と ComfyUI どちらを使う? 登場から比較してみよう!|きまま / Easygoing

            【画像生成AI】Stable Diffusion webUI と ComfyUI どちらを使う? 登場から比較してみよう! はじめにこんにちは、きまま / Easygoing です。 今回は、いろいろな画像生成 AI ツールをその登場から比較してみます。 Stable Diffusion webUI と ComfyUI今日の 画像生成 AI ツールで普及しているのは、Stable Diffusion webUI と ComfyUI です。 ComfyUI と Stable Diffusion webUI の検索数 | Google Trendsローカルで画像生成をはじめるとき、どのツールを使うのか迷いますが、それぞれのツールが 登場した時期 とその 背景 を見ながら、分かりやすく比較してみます。 画像生成 AI ツールの歴史まずは、主な 画像生成 AI ツールの登場時期を見てみます。 上の

              【画像生成AI】Stable Diffusion webUI と ComfyUI どちらを使う? 登場から比較してみよう!|きまま / Easygoing
            • 画像生成AI「FLUX.1」が相当ヤバい LoRAで画風の再現も簡単に (1/5)

              画像生成AI「Stable Diffusion」開発者たちが突然発表した新モデル「FLUX.1」、これが楽しすぎてはまりこんでいます。私の本業はゲーム会社。出展を予定している東京ゲームショウまで1ヵ月で、やらないといけないことが山積みなのに、FLUX.1が面白すぎて魅力に抗えません。 わずか30分の学習で画風が安定 FLUX.1が決定的に変えてきそうなのはLoRAです。LoRAは学習済みのウェイトモデルを利用することで、少ない枚数であっても学習ができるということで、画像生成AIの分野では広く普及している手法です。FLUX.1は、Stable Diffusionで使われてきたLoRAの方法論を動かすことができることがわかっています。 そのため、FLUX.1のリリース後、ユーザーコミュニティーでさっそくLoRAの環境の整備が始まり、何ができるのかを試すフェーズに入っています。これまでの「Sta

                画像生成AI「FLUX.1」が相当ヤバい LoRAで画風の再現も簡単に (1/5)
              • 動画生成AIについて:一番星はてのは目をゆっくり開き、踊れるか

                動画生成AIについて:一番星はてのは目をゆっくり開き、踊れるか お嬢様系 AI はてなブックマーカーである一番星はてのちゃんのファンアート生成の記事を書いてから、すでに1年以上が経過した。はてのちゃん当人からもブックマークされ、大変満足したことを覚えている1。はてのちゃんは1年以上経った現在も毎日元気に活動しており、喜ばしい限りである。 2023年3月当時と現在2を比較すると、LLM を含む生成 AI 技術は当然のように進歩している3。 動画生成 AI については、2023年7月に AnimateDiff がリリースされ、ローカル環境でも(比較的)簡単に(比較的)高度に制御された(比較的)高品質な動画が生成できるようになった。 当時、筆者は仕事で動画生成 AI の商業的利用の可能性について検討する機会があり、AnimateDiff を含む生成 AI 技術を使って、どの程度のコストでかつどの

                  動画生成AIについて:一番星はてのは目をゆっくり開き、踊れるか
                • 画像生成AI「Stable Diffusion」使うなら「ComfyUI」のワークフローが便利です (1/4)

                  プロンプト:1 girl, photorealistic, solo, perfect lighting, sailor dress, looking at viewer, long hair, black hair, two side up, ネガティブプロンプト:illustration, 3d render, (worst quality:2), (low quality:2), (normal quality:2), signature, watermark, username, open mouth

                    画像生成AI「Stable Diffusion」使うなら「ComfyUI」のワークフローが便利です (1/4)
                  • AIアニメの作りかた ComfyUI|852話

                    AIアニメの作り方を説明していきます。 ざっくりな説明は上の動画を見ていただければわかるんですが、 少し細かい説明がこの記事になります。 完成物これはワンダープロジェクトJ2というゲームの二次創作アニメですが、30年近く前の作品です。 今回の流れは ・AIの一枚立ち絵を用意する ・AnimateAnyone-Evolvedで骨に沿って動かす ・AAEでつくった画像をControlnetをかけつつAIブラッシュアップ ・AfterEffectsで背景抜き ・AI背景一枚絵を用意する ・Runwayで動かす(ComfyUIでもできるが質がいいし時短になる) ・キャラの後ろに配置、キャラの画像を複製して影にして足元に配置 ・完成 です。 作業はComfyUIで行います。 ・AIの一枚立ち絵を用意する ・AnimateAnyone-Evolvedで骨に沿って動かす 骨を抜いたのはこちらのフリー動画

                      AIアニメの作りかた ComfyUI|852話
                    • 話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) (1/6)

                      画像生成AI「Stable Diffusion」共同開発者たちによって設立されたベンチャー企業「Black Forest Labs(BFL)」が、8月1日(現地時間)に発表した話題の画像生成AIモデル「FLUX.1」。 前回の「画像生成AI「Stable Diffusion」の代替に? 話題の「FLUX.1」を試した」では、「ComfyUI」による画像生成を試した。 今回は、この連載ではおなじみ「Fooocus」の作者lllyasviel氏によるStable Diffusion用の高性能なWebインターフェース「Stable Diffusion WebUI Forge」が8月11日頃にFLUX.1に対応したということで、さっそく動作確認してみる。 なお、筆者の環境は以下のとおりだ。 CPU

                        話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) (1/6)
                      • 画像生成ソフトウェア「ComfyUI」のノードにキーロガーが仕込まれていたことが発覚、クレジットカード情報やパスワードなど全ての入力が筒抜けに

                        ノードベースの画像生成ソフトウェア「ComfyUI」向けに作られたノードの一つ「ComfyUI_LLMVISION」にマルウェアが仕込まれていることがわかりました。発覚後、ComfyUI_LLMVISIONのGitHubリポジトリが削除されています。 PSA: If you've used the ComfyUI_LLMVISION node from u/AppleBotzz, you've been hacked byu/_roblaughter_ incomfyui クリエイターのロブ・ラフター氏がRedditで共有したところによると、ComfyUI_LLMVISIONをインストールして使用した場合、ブラウザのパスワード、クレジットカード情報、閲覧履歴がWebhook経由でDiscordサーバーに送信されてしまうとのこと。 ラフター氏自身も影響を受け、ComfyUI_LLMVISIO

                          画像生成ソフトウェア「ComfyUI」のノードにキーロガーが仕込まれていたことが発覚、クレジットカード情報やパスワードなど全ての入力が筒抜けに
                        • VRAM消費60%減の衝撃。App ModeとGeForce RTXでComfyUIがさらに身近に ~初級者もつまずかないComfyUI完全導入ガイド[Sponsored]

                            VRAM消費60%減の衝撃。App ModeとGeForce RTXでComfyUIがさらに身近に ~初級者もつまずかないComfyUI完全導入ガイド[Sponsored]
                          • グーグルNano Banana級に便利 無料で使える画像生成AI「Qwen-Image-Edit-2509」の実力 (1/4)

                            画像生成AIでの一貫性のある表現を巡る各社の競争が激しくなる中、9月に公開されたアリババの画像生成AI「Qwen-Image-Edit-2509」の性能が注目されています。グーグルの「Nano Banana(Gemini 2.5 Flash Image)」の競合モデルです。オープンモデルなので、ローカルPC上でも動作可能というのが最大の利点です。特定の人物の服や小物を総入れ替えしたり、人物の背景やポーズを入れ替えたりと、様々なことができます。 ※記事配信先の設定によっては図版や動画等が正しく表示されないことがあります。その場合はASCII.jpをご覧ください アリババの最新画像生成モデル 「Qwen-Image-Edit-2509」は、アリババが展開する画像生成AI「Qwen Image」シリーズの1つです。8月に「Qwen-Image-Edit」をリリースしたばかりでしたが、3枚までの複

                              グーグルNano Banana級に便利 無料で使える画像生成AI「Qwen-Image-Edit-2509」の実力 (1/4)
                            • 【無料ローカルAI】音声付き動画を生成できる「LTX-2.3」ComfyUIでの使い方をわかりやすく解説! (1/4)

                              Lightricksは3月5日、動画と音声を単一のモデルで同時生成するオープンモデル「LTX-2.3」を公開した。これまで動画生成AIといえば、クラウドサービスの利用やハイエンドGPUの使用が前提とされることが多かったが、本モデルはその勢力図を塗り替える可能性を秘めている。 今回は、RTX 4070(VRAM 12GB)というミドルクラスの環境を用い、ComfyUIでどこまで実用的な生成が可能かを検証した。 LTX Studioで感触をつかむ ComfyUIでローカル生成を試す前に、まずはブラウザ上で動作する「LTX Studio」で試してみよう。無料プランでも初回付与クレジットで数本の動画生成を試すことができるからだ。 これはLTX Studioの無料クレジットで生成した動画だ。プロンプトは「A person walking down an alley on a rainy night」

                                【無料ローカルAI】音声付き動画を生成できる「LTX-2.3」ComfyUIでの使い方をわかりやすく解説! (1/4)
                              • Macで始める画像生成AI 「Stable Diffusion」ComfyUIの使い方 (1/5)

                                突然だが、上記はこの連載の第2回の冒頭部分だ。連載をはじめた当初は右も左もわからない状態だったので「Stable DiffusionはMacでは使えない」と断言してしまった。思い出すたびに冷や汗が出る。 とはいえご存知の通りStable Diffusionを動かすのにNVIDIAビデオカード搭載のWindows機が向いているのは事実なので、これまではすべて新規購入したゲーミングPCで作業することになんの不満も感じていない。 だが、前回紹介したStable DiffusionのUI環境のインストールや更新がワンクリックで可能になる「Stability Matrix」を使えば、PythonやPipのバージョンといった難しいことを考えなくてもMacで画像生成環境を作れるのではないかと考えた。 お詫びから7ヵ月、ずいぶん遅くなったがようやく伏線回収である。 Stability MatrixでM1

                                  Macで始める画像生成AI 「Stable Diffusion」ComfyUIの使い方 (1/5)
                                • 日本語からイラスト生成プロンプトに翻訳する LLM を作った

                                  TL;DR 日本語から danbooru タグに翻訳する LLM を作った LLM を使ってデータセットを合成した 成果物 Danbooru tags Translator で略して Danbot です (Danbooru + Bot にもなります)。前回は Dart でしたが流石に名前被りが多くて検索しずらそうなので変えました。 モデル: 作成したデータセット: ComfyUI カスタムノード: 結果だけ見たい方は #画像生成結果 へ。 前提 この記事は、前回の プロンプトは考えたくないけど画像生成がしたい! となっています。 割と前回の手法について触れることがあるので、前回の記事を読まないと理解できない箇所があるかもしれません。 はじめに 前置きは前回の記事と同じなのでざっくり説明します。 画像生成モデルのプロンプト、考えるの難しい じゃあプロンプトを LLM で生成しよう という感じ

                                    日本語からイラスト生成プロンプトに翻訳する LLM を作った
                                  • 生成AIツール「ComfyUI」の複雑怪奇なUIをスッキリ分かりやすくできる公式機能「App Mode」が登場

                                    ComfyUIは各種画像生成AIや動画生成AIをローカルで実行できるアプリです。しかし、「Comfy(快適な)UI」という名前に反して初心者にとって分かりにくいUIであることも有名です。そんなComfyUIの新機能として、ノードを組み合わせて構築したワークフローを分かりやすいUIに変換できる「App Mode(アプリモード)」が登場しました。 From Workflow to App: Introducing App Mode, App Builder, and ComfyHub https://blog.comfy.org/p/from-workflow-to-app-introducing ComfyUIは「AIモデルを読み込むノード」「人間用の画像をAI用の画像に変換するノード」「画像を保存するノード」といった個別の機能を持つノードを組み合わせて「ワークフロー」を構築する仕組みのAI

                                      生成AIツール「ComfyUI」の複雑怪奇なUIをスッキリ分かりやすくできる公式機能「App Mode」が登場
                                    • 【西川和久の不定期コラム】 ComfyUIのWebUIを作りました!普段使うWorkflowが固定ならこの方が見やすいかも!?

                                        【西川和久の不定期コラム】 ComfyUIのWebUIを作りました!普段使うWorkflowが固定ならこの方が見やすいかも!?
                                      • 無料でここまで? 動画生成AI「LTX-2.3」はWan2.2の牙城を崩すか (1/5)

                                        3月5日に公開された動画生成AIモデル「LTX-2.3」が注目されています。開発しているのは、2013年に設立され、写真加工アプリで評価を集めてきた、イスラエルのLightricksというベンチャー企業です。LTX-2.3は特徴として、実写系に強く、軽量である良さがあるものの、激しい動きは弱い、アニメ系の品質は低いといった課題を抱えています。動画のオープンモデルでは中国系が圧倒してきましたが、アリババの最も有力な2025年7月の「Wan2.2」以降、オープンモデルの公開を止めていることもあって、後継となる存在として期待を集めています。 イスラエル生まれの動画生成モデル △明日来子さんによる簡単紹介。音声はQwen3-TTSで作成(動画は、NVIDIA RTX Video Upscalerを使って、オリジナル画質から高画質化しています) この連載の作例モデルの“明日来子さん”に話してみてもら

                                          無料でここまで? 動画生成AI「LTX-2.3」はWan2.2の牙城を崩すか (1/5)
                                        • ComfyUI 解説 (wiki ではない)

                                          Stable Diffusion の web UI でありバックエンドでもある ComfyUI について、主にアーティスト向けに、内部動作や背景にある理論も含めて感覚的に捉えられるように解説していきます。 (充実しつつある公式 README や公式サンプルに書いてあることは、多分このサイトでは説明しません) 重要な外部リンク ComfyUI 公式リポジトリ ComfyUI 公式サンプル ComfyUI 公式チュートリアル (未完らしい) 有志によるマニュアル (ほぼ準公式) 最近の主な更新 公式に取り込まれた: ConditioningConcat 新ノード: ConditioningZeroOut SDXL 関連のノード追加: CLIPTextEncodeSDXL、CLIPTextEncodeSDXLRefiner モデルの保存が出来るようになった: CheckpointSave SDX

                                          • ComfyUI、画像生成AI「Anima」共同開発 アニメ系モデルで“SDXL超え”狙う (1/5)

                                            1月末に「Anima」という新しい画像生成モデルがリリースされました。ローカル向けの生成AIアプリとしてデファクトスタンダードになりつつあるComfyの「ComfyUI」が米Circle Stone Labに資金提供をして共同開発したモデルです。ComfyUI用に標準化されたアニメモデルの開発を推し進めているようです。現在でも人気のある「Stable Diffusion XL(SDXL)」に比べて、多様な画風を作り出すことが可能です。画像分析ツールと組み合わせてみていきましょう。 ※記事配信先の設定によっては図版や動画等が正しく表示されないことがあります。その場合はASCII.jpをご覧ください あざやかなアニメ系画像が特徴 Animaは現在、プレビュー版として公開されています。パラメータ数は2B(20億)で、数百万枚のアニメ画像と、約80万枚の非アニメのアート画像で学習したようです。また

                                              ComfyUI、画像生成AI「Anima」共同開発 アニメ系モデルで“SDXL超え”狙う (1/5)
                                            • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第62回:ComfyUIの複雑な生成画面をスッキリさせるApp modeとちょっと面白いWorkflow(西川和久) | テクノエッジ TechnoEdge

                                              であれば、上記のモデルもLLM的に使いプロンプト拡張的に再利用できないか?と、筆者が作ったのが以下のカスタムノードだ。Z-Image / Qwen3-4b、LTX-2.3 / Gemma3-12b-itに対応している。 「え”Qwen-Imageは?」なのだが、もちろんトライしたものの、ComfyUIの内部構造が非対応で、カスタムノード内では吸収し切れなかったため諦めた…と言う経緯がある。 使い方は簡単!例えばZ-Imageだと、入力はCLIP、出力はテキスト。この出力をCLIP Text Encode (Positive Prompt)のTEXTへ入れれば準備完了。 パラメータとして、ユーザープロンプトとシステムプロンプトがあり、後者には、 You are a professional image generation prompt expert. Output in English.

                                                生成AIグラビアをグラビアカメラマンが作るとどうなる?第62回:ComfyUIの複雑な生成画面をスッキリさせるApp modeとちょっと面白いWorkflow(西川和久) | テクノエッジ TechnoEdge
                                              • GitHub - Comfy-Org/ComfyUI: The most powerful and modular diffusion model GUI, api and backend with a graph/nodes interface.

                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                  GitHub - Comfy-Org/ComfyUI: The most powerful and modular diffusion model GUI, api and backend with a graph/nodes interface.
                                                • ComfyUI、必要メモリを大幅に削減する「Dynamic Vram」をデフォルトで有効化

                                                    ComfyUI、必要メモリを大幅に削減する「Dynamic Vram」をデフォルトで有効化
                                                  • NVIDIA、GeForce環境向けにComfyUIなど最適化。NVFP4 / FP8対応で最大3倍高速に、VRAM使用量も低減

                                                    NVIDIA、GeForce環境向けにComfyUIなど最適化。NVFP4 / FP8対応で最大3倍高速に、VRAM使用量も低減 米NVIDIAは1月5日(現地時間)、開発者向けブログを更新し、ComfyUIやllamaなどに対して最適化を行ったと言及した。RTX 40より古い世代にも恩恵があるほか、GPUメモリからあふれてしまう場合にもスループットを改善するという。 NVIDIA、GeForce環境向けにComfyUIなど最適化。NVFP4 / FP8対応で最大3倍高速に、VRAM使用量も低減 ComfyUIではPyTorch-CUDAを通じて性能を最適化。NVFP4とFP8フォーマットへの対応を有効化して精度を維持しつつ、NVFP4では平均3倍、NVFP8で2倍もの大幅な高速化を実現したという。またこれらの精度に対応しないRTX 30などでもFP8での推論処理を高速化したほか、GPUメ

                                                      NVIDIA、GeForce環境向けにComfyUIなど最適化。NVFP4 / FP8対応で最大3倍高速に、VRAM使用量も低減
                                                    • 【西川和久の不定期コラム】 画像生成AIの「ノード地獄」にサヨナラ。ComfyUIを快適に使う技と超簡単インストール法

                                                        【西川和久の不定期コラム】 画像生成AIの「ノード地獄」にサヨナラ。ComfyUIを快適に使う技と超簡単インストール法
                                                      • 動画生成AI「LTX-2」登場、ローカル動作するオープンモデルでNVIDIAによる「4K動画生成パイプライン」もあり

                                                        AI開発企業のLightricksがオープンソースのオーディオ・ビデオ生成モデル「LTX-2」をリリースしました。LTX-2ではハイエンドな個人用PCでローカル実行することが可能で、環境音や会話音声を含む動画を生成できます。 LTX-2 Overview | LTX Documentation https://docs.ltx.video/open-source-model/getting-started/overview LTX-2 is now open source. The first truly open audio-video generation model with open weights and full training code, designed to run locally on @NVIDIA_AI_PC RTX consumer GPUs. Details

                                                          動画生成AI「LTX-2」登場、ローカル動作するオープンモデルでNVIDIAによる「4K動画生成パイプライン」もあり
                                                        • Qwen-Imageに日本語を書かせる - きしだのHatena

                                                          Qwen-Imageは日本語のテキストが書けません。 ところで最近Nano Banana Proがかなりテキストを破綻なく書くようになっていて、どうやらこれは裏でテキストをレンダリングして読み込んでるようなので、同じことをQwen-Imageやったらどうかと試すと、結構うまくいきました。実際はQwen-Image-Editだけど。 ただ、毎回テキストの画像を用意するのは面倒なので、テキスト描画用のカスタムノードを作ってみたら便利だったので共有。 Text Renderer Nodeのインストール テキストを描画して画像化するカスタムノードを作ってます。 https://github.com/kishida/comfyui-text-renderer というかコードはほとんど全部Claude Sonnetに書いてもらってます。10文字くらいフォント拡張子を追加した。 git使える人はComf

                                                            Qwen-Imageに日本語を書かせる - きしだのHatena
                                                          • ComfyUI で Stream Diffusion を動かす|.com

                                                            0. はじめに先日 Stream Diffusion が公開されていたみたいなので、ComfyUI でも実行できるように、カスタムノードを開発しました。 Stream Diffusionは、連続して画像を生成する際に、現在生成している画像のステップに加えて、もう次の生成のステップを始めてしまうというバッチ処理をするそうです。 学者ではないので、詳しくはわかりませんが、上記のようなことを公式のYouTubeチャンネルでお話しされていたみたいなので、興味のある方はのぞいてみてください。 実際のリポジトリをのぞいてみると、Diffusers を使って書かれていたため、そのままではカスタムノードにできないので、いっそ Diffusers をComfyUIで使えるようにして、それを使って Stream Diffusion を動かそうという魂胆のもと、開発しました。 この記事以降も開発は続けますので、

                                                              ComfyUI で Stream Diffusion を動かす|.com
                                                            • ComfyUI | Generate video, images, 3D, audio with AI

                                                              Build AI workflows visually by connecting nodes on a canvas. Unlike traditional linear UIs, ComfyUI gives you full control — branch, remix, and adjust every part of your workflow at any time.

                                                                ComfyUI | Generate video, images, 3D, audio with AI
                                                              • AMD製グラボでの画像生成AIが爆速になるComfyUIアップデートが配信、ROCm統合で生成速度が5.4倍に

                                                                ローカル画像生成の分野では「AMD製グラフィックボードは同等性能のNVIDIA製グラフィックボードと比べて環境構築が面倒で生成速度も大きく劣る」という状況が続いていました。新たに生成AI実行アプリのComfyUIがROCmへのネイティブ対応を果たし、AMD製グラフィックボードやAMD製SoCを搭載したマシンでの生成速度が大きく向上しました。 AMD x ComfyUI: Advancing Professional-Quality Generative AI on AI PCs https://www.amd.com/en/blogs/2026/amd-comfyui-advancing-professional-quality-generative-ai-ryzen-radeon.html Official AMD ROCm™ Support Arrives on Windows for

                                                                  AMD製グラボでの画像生成AIが爆速になるComfyUIアップデートが配信、ROCm統合で生成速度が5.4倍に
                                                                • ComfyUI のコード解説と高速化省メモリ化技術のまとめ - Qiita

                                                                  高速化省メモリ技術 上記の生成フロー番号で適用箇所を示しどのような高速化や省メモリ化技術が適用されているか解説します。 ノード間キャッシュ 起動オプション 起動オプションの処理はcomfy/cli_args.pyで実装されています。 例えば、--cache-classicオプションをつけた場合、args.cache_classic 変数に対応付けされ、オプションに基づく処理の分岐を行う際にこの変数が活用されます。 ノードの実装 ノードはnodes.pyとcomfy_extras以下で実装されています。 ノード間の処理 ワークフローの実行はexecution.py で実装されています。ノード単位で処理が行われ、ノードの実行結果をキャッシュするようになっています。 同じワークフローを 2 回目以降実行する際に、変更されていないノードの実行結果がキャッシュに存在するならそのノードを実行することを

                                                                    ComfyUI のコード解説と高速化省メモリ化技術のまとめ - Qiita
                                                                  • 最強の自動プロンプトはどれ? TIPO・Cliption・Florence-2 を徹底比較!|きまま / Easygoing

                                                                    はじめにこんにちは、きまま / Easygoing です。 今回も前回に引き続き、画像生成のプロンプトを自動で作る方法を考えます。 キーワード VS 画像前回、自動でプロンプトを作るには、キーワードと画像を使う2種類の方法があることをご紹介しました。 前回は高性能で万能な ChatGPT を使いましたが、今回はローカルで使える LLM と VLM を探してみます。 キーワードからプロンプトを作るキーワードからプロンプトを作る場合、使用するのは LLM(大規模言語モデル)と呼ばれる AI モデルです。 大規模言語モデル:LLM(文章 → 文章)ローカルで利用できる LLM として最も普及しているのが LLaMA で、オープンソース(正確にはオープンウェイト)で公開されているので様々なパラメータ数のモデルが存在しています。 プロンプトを作る専用の LLaMA モデル!LLaMA の中には、軽量

                                                                      最強の自動プロンプトはどれ? TIPO・Cliption・Florence-2 を徹底比較!|きまま / Easygoing
                                                                    • AnimateDiffにComfyUI環境でのControlNetを適応する|Alone1M

                                                                      この記事は、「AnimateDiffをComfyUI環境で実現する。簡単ショートムービーを作る」に続く、KosinkadinkさんのComfyUI-AnimateDiff-Evolved(AnimateDiff for ComfyUI)を使った、AnimateDiffを使ったショートムービー制作のやり方の紹介です。今回は、ControlNetを使うやり方を紹介します。ControlNetと組み合わせることで、制御できることの幅が一気に広がります。 AnimateDiff for ComfyUIは、ControlNetに対応しています。ただし、使い方に少し癖があり、公式ページではあまり詳しく解説が行われていないため、引っかかりやすい状態になっています。この記事は、公式ページを補完する目的で書いています。 Control Net付きのサンプルワークフロー サンプルのワークフローを含んだ画像がい

                                                                        AnimateDiffにComfyUI環境でのControlNetを適応する|Alone1M
                                                                      • ComfyUI Examples

                                                                        ComfyUI Examples This repo contains examples of what is achievable with ComfyUI. All the images in this repo contain metadata which means they can be loaded into ComfyUI with the Load button (or dragged onto the window) to get the full workflow that was used to create the image. A good place to start if you have no idea how any of this works is the: ComfyUI Basic Tutorial VN: All the art is made w

                                                                        • ComfyUIでQwen-Image-Edit-2509を試す手順(FP8/GGUF/Nunchaku、Lightning使用)|まゆひらa

                                                                          ComfyUIでQwen-Image-Edit-2509を試す手順(FP8/GGUF/Nunchaku、Lightning使用) Last update 11-17-2025 ※ (12-24-2025) 性能が向上したQwen-Image-Edit-2511が公開されています。記事を執筆する予定ですが、本記事よりも内容を縮小する予定です。ModelはComfy OrgによるBF16版、drbaphによるFP8版、unslothによるGGUF版、Lightning LoRAがあります。 ※ (11-30-2025) 現在のNunchakuは、専用のDiT Loaderがありません(必要なくなりました)。「Load DIffusion Model」のノードに差し替えてご利用ください。 ※ (11-17-2025) Nunchaku版のModelのLightningバージョンが更新されました。

                                                                            ComfyUIでQwen-Image-Edit-2509を試す手順(FP8/GGUF/Nunchaku、Lightning使用)|まゆひらa
                                                                          • ComfyUI ウィキ チュートリアル マニュアル | ComfyUI Wiki

                                                                            ComfyUI Wiki💡 多くのコンテンツがまだ更新中です。 AIGCをマスターするためのオンラインComfyUIチュートリアルドキュメント [非公式]

                                                                              ComfyUI ウィキ チュートリアル マニュアル | ComfyUI Wiki
                                                                            • GitHub - Comfy-Org/ComfyUI-Manager: ComfyUI-Manager is an extension designed to enhance the usability of ComfyUI. It offers management functions to install, remove, disable, and enable various custom nodes of ComfyUI. Furthermore, this extension provides

                                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                GitHub - Comfy-Org/ComfyUI-Manager: ComfyUI-Manager is an extension designed to enhance the usability of ComfyUI. It offers management functions to install, remove, disable, and enable various custom nodes of ComfyUI. Furthermore, this extension provides
                                                                              • ComfyUIでSDXLを試してみる

                                                                                StableDiffusion用のUI ノードベースでパイプラインを作って処理を行う というものらしい。 stable-diffusion-web-uiでのSDXLサポートがまだ足りないようで、こちらが使われている記事などをちらほら見かけたので、試してみた。(ComfyUI自体はSD1.X/2.Xにも対応している) インストール pyenv-virtualenvのpython-3.10.11でやってみる。 $ pyenv virtualenv 3.10.11 ComfyUI $ git clone https://github.com/comfyanonymous/ComfyUI && cd ComfyUI $ pyenv local ComfyUI $ pip install torch torchvision torchaudio --extra-index-url https://d

                                                                                  ComfyUIでSDXLを試してみる
                                                                                • 【AIアニメ】ComfyUI AnimateDiffでアニメの中割りを作ろう!|Baku

                                                                                  前回の記事では、AI動画生成ツールのAnimateDiffと「ControlNet」を組み合わせることで、特定のモーションをアニメで再現しました。 今回は、ControlNetの「Tile」という機能を組み合わせて、2枚の画像を補間するアニメーションの生成を試します。 必要な準備ComfyUI AnimateDiffの基本的な使い方については、こちらの記事などをご参照ください。 今回の作業でComfyUIに導入が必要なカスタムノードなどは以下のとおりです(説明は後述)。 カスタムノード (./custom_nodes/): 以下の2つを使います。 ComfyUI-AnimateDiff-Evolved(ComfyUI用AnimateDiff) ComfyUI-Advanced-ControlNet(ControlNet拡張機能) モーションモジュール (./custom_nodes/Com

                                                                                    【AIアニメ】ComfyUI AnimateDiffでアニメの中割りを作ろう!|Baku

                                                                                  新着記事