サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ノーベル賞
e-penguiner.com
髪色や髪型は,キャラクタや人物の印象に強く影響を与えます. この記事では,Stable Diffusionを用いて髪型や髪色に関するプロンプトをまとめました.Stable Diffusionに限らず他の画像生成AIでも利用可能です. モデルによって色合いの違いが生じますが,この記事のものを基本として調整すれば,好みの色を出力することが可能です.
好きなポーズを描かせるにはどうするか? プロンプトによりポーズを指定する プロンプト(いわゆる呪文)でポーズ指定する場合は,t2iでプロンプトを指定するのみです. この記事は,プロンプトによりポーズや構図指定する方を対象に記事を作成しました. ControlNetを用いてポーズを指定する ”ControlNetを用いたポーズ指定”は”プロンプトによるポーズ指定”よりも少し難易度が高いです. (とはいっても,Stable Diffusionをインストールして利用している人にはそこまでではないと思います.) ”ControlNetをポーズ指定”はプロンプトでは難しいポーズ指定などもできます. ControlNetに関しては下記記事に記載しています.
「表情」はイラストの印象に極めて影響を与える要素です. 一つのプロンプトではなく,複数プロンプトを組み合わせることで表情をよりコントロールしやすくなります. また,プロンプトの影響度はある程度モデルに依存するため,多くの語句を知っておくことが役に立ちます. この記事では,Stable Diffusionを用いてさまざまな表情に関するプロンプトをまとめました.Stable Diffusionに限らず他の画像生成AIでも利用可能です.
Quicksettings listの設定 AUTOMATIC1111には”Quicksettings list”という設定項目があり,「UIの上部に表示する項目」を変更できます. “Quicksettings list”は[Setting] > [User interface]の画面にあります. デフォルトでは,”Quicksettings list”にはsd_model_checkpointが設定されています. これを下図のようにsd_model_checkpoint, sd_vae, CLIP_stop_at_last_layersに変更することで,UIの上部に”VAE”と”Clip skip”の項目を追加することができます. 設定を追加し,[Apply settings]をクリックし,[Reload UI]をクリックすることで,下記のように”SD VAE”と”Clip skip”が
ControlNetとは ControlNetとは ControlNetは,事前学習済みのモデルに対して新たに制約条件を与えることで,画像生成を柔軟に制御することが可能になる技術です. すなわち,ControlNetによりimg2imgでは苦労していたポーズや構図の指定が可能になります. 詳しく知りたい方は原論文を読んでください.ControlNetの論文に関してはこちらです. AUTOMATIC1111でControlNetを使用するためには下記の2種類をインストールする必要があります. sd-webui-controlnet:AUTOMATIC1111でControlNetを使用するための拡張機能 ControlNet:モデル本体 sd-webui-controlnetのインストール まず,AUTOMATIC1111でControlNetを使用するための拡張機能を導入します. 導入する
Stable Diffusionなど画像生成AIを使用しているとLoRAという言葉をよく聞くと思います. LoRAは学習済みモデルを自分好みに改良するような目的で使用されるものであり,特にStable Diffusionなどで使われる際は,特定のキャラに特化させモデルを作る目的で使用されることがほとんどです. この記事では,自分用のLoRAを作成する方法を記載します. LoRAとは? LoRAは”Low-Rank Adaptation”の略で,LoRAに関する原論文はこちらです. 一言でいうと,LoRAはフルサイズのファインチューニングに比べて,はるかに高速で少ない計算量で学習が可能な技術です. Stable Diffusion用に使う分にはTransformerやFine Tuning,LoRAの詳細を知る必要はありません.素人でも簡単に使えるというのがこの技術の素晴らしいところです.
Stable Diffusion(AUTOMATIC1111)をWindowsにインストール方法と使い方 この記事は,画像生成AIであるStable Diffusion web UIのインストール方法と使い方について記載します. 【Stable Diffusionとは?】 Stable Diffusionとは画像生成AIの…
【Stable diffusion】 Docker版のStable Diffusion web uiの使い方 【Stable Diffusionについて】 Stable Diffusionは画像生成AIモデルです.ほとんどの場合,WebUIを用いて利用されます. Stable Diffusionを利用したWebUIは下記のよう… Stable Diffusionでは,画像生成することができましたがデフォルトモデルでは下記のようなアニメ風イラストの生成は非常に難しいです. Stable DiffusionにはCheckpointと呼ばれる事前学習済みのモデルに関する設定があります.アニメ調の画風やリアルな画風など,画風に応じて特化させたCheckpointがさまざま提案されています. この記事では,アニメ風イラストモデルに関して記載します.
Stable Diffusionとは? Stable Diffusionとは画像生成AIの一つです. このような女の子の画像を作成することができます. 公式サイトの説明は以下の通りです.簡単に説明すると,Diffusion modelというものを使ってテキストから画像を生成できるAIのことです. Stable Diffusion is a latent text-to-image diffusion model capable of generating photo-realistic images given any text input, cultivates autonomous freedom to produce incredible imagery, empowers billions of people to create stunning art within second
オンプレミス構築のメリット・デメリット メリット セキュリティ関係上,クラウドを用いることが出来ない場合に使用可能 マシンスペックを調整可能なため,安定性の向上や高速化が期待できる オンプレミスのため,サーバやネットワーク独自のセキュリティ要件やシステム構成を満たすことが可能 クラウドでは編集不可能な設定ファイルを編集することで,独自のサーバーサイドフックなどが設定可能 デメリット 構築の手間がかかる 有償版においてSaaSとオンプレミスのライセンス料金体系に違いがないため,料金面でメリットを感じない サーバを用意する必要がある 障害対策に常に気を配る必要がある
世の中では,Dockerの利用者がかなり増えてきていますね.ただ,Dockerはまだまだ発展途上?なのかユーザが多くなって開発が盛んになったためか,日々機能が更新されています. 今回は,Dockerのユーザ権限周りに関してのまとめてみました. Dockerでは,通常管理者権限(root)を通じて操作します.そのため,Root以外のユーザはDockerを使用することができません. しかし,一般ユーザであったとしてもDockerを使用したいといった要望は割と多いです.その方法として,以前までは,Dockerの実行許可を与えるユーザにグループに追加する方法が一般的でした.ただ,セキュリティ面に問題があったため,あまり推奨される方法ではありませんでした. そこで,Docker Engine v19.03で実験的にRootlessモードが導入され,Docker Engine v20.10から実験的な
このページを最初にブックマークしてみませんか?
『e-penguiner.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く