並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 174 件 / 174件

新着順 人気順

Stable-Diffusionの検索結果161 - 174 件 / 174件

  • DreamArtistをcolabで使う - MarkdownとBullet Journal

    1枚の絵だけで学習するDreamArtist 複数枚の絵で学習させるDreamBoothに対して1枚の絵だけで学習できるDreamArtistが登場した。AUTOMATIC1111で使えるとのことなので早速Google colabで試してみた。 DreamArtistとは 必要なファイルをDL出来るサイトは以下の通り。 github.com DreamArtistは、1つのトレーニング画像でコンテンツとスタイルを学習し、制御性の高い多様な高品質の画像を生成します。 DreamArtist の埋め込みは、追加の説明や 2 つの学習した埋め込みと簡単に組み合わせることができます。 イメージ図。元画像のキャラが再現できている。 DreamArtistの例 Texture Inversion, DreamBooth,との比較(いずれも学習は1枚のみ) 3方式の比較 Imagicとの違い 同様に1枚

      DreamArtistをcolabで使う - MarkdownとBullet Journal
    • GitHub - hlky/sd-enable-textual-inversion: Copy these files to your stable-diffusion to enable text-inversion

      sd-enable-textual-inversion Copy the files into your stable-diffusion folder to enable text-inversion in the Web UI. If you experience any problems with webui integration, please create an issue here. If you are having problems installing or running textual-inversion, see FAQ below. If your problem is not listed, the official repo is here. How does it work? textual-inversion - An Image is Worth On

        GitHub - hlky/sd-enable-textual-inversion: Copy these files to your stable-diffusion to enable text-inversion
      • GitHub - Bing-su/adetailer: Auto detecting, masking and inpainting with detection model.

        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

          GitHub - Bing-su/adetailer: Auto detecting, masking and inpainting with detection model.
        • Optimized Stable Diffusion GUI Tool - yukishigure - BOOTH

          本ソフトウェアは、Optimized Stable Diffusionを快適に操作するためのGUI Toolです。 簡単操作でAIによる画像生成を行うことが出来ます。 3GB未満のVRAMでも、512x512の解像度で画像を出力することができます。 本ツールの独自機能として ・高解像度化機能 ・promptの日本語入力機能 ・各パラメータの総当たり機能 ・プロンプト連続実行機能 ・ネガティブプロンプト連続実行機能 ・再実行によるループ機能 などを搭載しており、VRAM解放後に連続実行やループを行うため、コマンドや公式付属ツールによる実行と比べ、一度により多くの画像生成を試行できます。 例えば、n_samplesがVRAMの関係で4枚までしか指定できない環境でも、loopsを増やすことで、一度の実行で100枚でも200枚でも連続出力することができます。 また、Optimized Stable

            Optimized Stable Diffusion GUI Tool - yukishigure - BOOTH
          • [Diffusion Model]Hypernetworksの個人的なチューニングTipsのまとめ

            このスクラップについて Latent Diffusion Modelのチューニング手法の一つである、Hypernetworksの構造やハイパラの設定についてTipsを残していくスクラップです。 自分が試してみて良かった・良くなかった設定や、他の方々がネット上に共有している有用な記事を飽きるまで随時載せていきます。 当然ですが、学習用データの量や属性によって、ここに書いてあることが全く参考にならない場合があるので、ご了承ください。 前提環境 以下と同環境で学習を行っていない場合、ここに投下するTipsがほとんど通用しない可能性があります。 Pretrained Weight: Waifu Diffusion v1-3 float16 Batch Size: 1 Optimizer: AdamW Interrogator: Deepdanbooru Loss: LDM Loss Dataset

              [Diffusion Model]Hypernetworksの個人的なチューニングTipsのまとめ
            • Stable DiffusionのU-Netでブロックごとに異なるプロンプトを与えて画像生成する(ブロック別プロンプト)|Kohya S.

              はじめに※1/10追記:コメントでご指摘いただきましたが、キャプションが有効(CrossAttentionが存在する)なのはblock 1, 2, 4, 5, 7, 8, 12, 16 ~ 24です。他のblockのキャプションは無視されます。確認が足らず失礼いたしました。 ご指摘いただいたgcem156氏に感謝します。 U-Netの構造については以前の記事に書きました。 U-NetはText Encoderからの出力を受け取り、それに沿うように(プロンプトを再現するように)画像生成を行いますが、Text Encoderの出力はU-Netのブロックそれぞれに渡されます。つまり25個のブロックそれぞれで受け取っていることになります。 通常はそれぞれが同じプロンプトの情報(conditioning)を受け取りますが、別々にすることも可能ではないか、ということで試してみたのがこの記事になります。

                Stable DiffusionのU-Netでブロックごとに異なるプロンプトを与えて画像生成する(ブロック別プロンプト)|Kohya S.
              • naclbit/trinart_stable_diffusion · Hugging Face

                This model is obsolete. Please refer to the newer version: https://huggingface.co/naclbit/trinart_characters_19.2m_stable_diffusion_v1 https://huggingface.co/naclbit/trinart_stable_diffusion_v2 古いモデルです。上記のURLを踏んで新バージョンに飛んでください。

                  naclbit/trinart_stable_diffusion · Hugging Face
                • Diffusion Model(拡散モデル)の追加学習をColabでやる方法|きざみみ(kizamimi)

                  Diffusion Modelの追加学習を始める追加学習の有用性Dream BoothやHyper Networkなどの比較的軽量な追加手法でない純粋な追加学習は手軽さは下がる一方で、生成させたい画像へ導く能力において期待値が高いと予想しています。今回、実際の手法間の比較は行わず、追加学習の始め方を用意したColabベースのコードを使って説明します。 前提知識google colabの使い方が分かる google driveの使い方が分かる 追加学習までの流れ画像データセットを用意する データセットのキャプションを作成する―コード➀ 追加学習する―コード② 学習モデルを使って生成―コード③ データセットを用意するまず、高さ512ピクセル以上かつ幅512ピクセル以上の画像を沢山用意します。(私の場合は3000枚程度用意しましたが100枚程度でも動きます) 次に、用意したデータセットをCola

                    Diffusion Model(拡散モデル)の追加学習をColabでやる方法|きざみみ(kizamimi)
                  • X-Adapter

                    TL;DR: X-Adapter enable plugins pretrained on old version (e.g. SD1.5) directly work with the upgraded Model (e.g., SDXL) without further retraining We introduce X-Adapter, a universal upgrader to enable the pretrained plug-and-play modules (e.g., ControlNet, LoRA) to work directly with the upgraded text-to-image diffusion model (e.g., SD-XL) without further retraining. We achieve this goal by tra

                    • 【comfyUI・Fooocusにも対応】 Stability Matrixが凄い! 画像AI環境構築これで出来ないなら諦めろ【モデルLoRA管理付】|カガミカミ水鏡🔞

                      【comfyUI・Fooocusにも対応】 Stability Matrixが凄い! 画像AI環境構築これで出来ないなら諦めろ【モデルLoRA管理付】 こんにちわ。アカウント整理中にXが凍結したカガミカミ水鏡です。 SDXLのモデルリリースが活発ですね! 画像AI環境のstable diffusion automatic1111(以下A1111)でも1.5からSDXL対応になりましたが、それよりもVRAMを抑え、かつ生成速度も早いと評判のモジュール型環境ComfyUIが人気になりつつあります。 しかし、これらを導入するには様々な問題があります。初心者向けだと…… インストールから利用までの方法に不安 GitもPythonもわからない、インストール失敗する、環境変数よくわかんない、アップデートも失敗する と、導入に不安が。 一方で従来の利用者で、特にA1111とcomfyUIの共存を考えるユ

                        【comfyUI・Fooocusにも対応】 Stability Matrixが凄い! 画像AI環境構築これで出来ないなら諦めろ【モデルLoRA管理付】|カガミカミ水鏡🔞
                      • GitHub - lllyasviel/LayerDiffuse: Transparent Image Layer Diffusion using Latent Transparency

                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                          GitHub - lllyasviel/LayerDiffuse: Transparent Image Layer Diffusion using Latent Transparency
                        • 【AI画像生成】ComfyUIのAPIを使って物語の挿絵生成を試す|Baku

                          ChatGPTが業務分担してゲームを作る「ChatDev」がすごく面白かった。 同じような発想で、エージェント化したAIが分業して漫画を作るアプリとかあったら楽しいので、誰か作って公開してほしい… …漫画はムリでも絵本くらいなら自分でもイケるかも、という安直な考えを抱いたので、とりあえずAPIの使い方を調べた。 「ChatDev」では画像生成にOpenAIのAPI(DALL-E)を使っている。手軽だが自由度が低く、創作向きではない印象。今回は「ComfyUI」のAPIを試してみた。 ComfyUIの起動まず、通常どおりComfyUIをインストール・起動しておく。これだけでAPI機能は使えるっぽい。 # ComfyUIのインストール !git clone https://github.com/comfyanonymous/ComfyUI %cd ComfyUI # 依存関係のインストール !

                            【AI画像生成】ComfyUIのAPIを使って物語の挿絵生成を試す|Baku
                          • Your connected workspace for wiki, docs & projects | Notion

                            A new tool that blends your everyday work apps into one. It's the all-in-one workspace for you and your team

                              Your connected workspace for wiki, docs & projects | Notion
                            • GitHub - bmaltais/kohya_ss

                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                GitHub - bmaltais/kohya_ss

                              新着記事