を具体的なプロンプト(=呪文)つきでご紹介するという内容になっています。 先日、画像生成AIで美少女イラストや女の子の立ち絵素材を作る方法をご紹介したのですが、呪文を工夫したところ普通のキャラだけでなく「ちびキャラ」のイラストを生み出せることも判明しました。かわいいちびキャラは立ち絵として加工すれば創作活動に活用でき、とても役立つと思ったのでぜひ記事を書いておこうと思った次第です。 そこでここではその方法について具体的に解説していきますね。
こんにちは!金融ソリューション事業部の山下です。 本記事では、画像生成AIのStableDiffusionとデプスマップ推定AIのBoostingMonocularDepthを用いて、上記のように板を押し出し加工したような(擬似)3Dモデル生成方法を紹介します。 3DのモデリングおよびレンダリングはHoudiniを使用します。 実施環境/ツール 実施手順 1. Stable Diffusion web UIのインストール 2. tex2imgで画像生成 3. BoostingMonocularDepthでデプスマップ生成 4. 生成画像をデプスマップを用いて3D化 完成イメージ 所感 参考 実施環境/ツール OS:Windows 11 pro GPU:NVIDIA GeForce RTX 3070Ti Laptop DCC:Houdini Indie version 19.5.493 St
何この記事 タイトルの通り、inpaintingタスクを利用して既存のイラストの服装を別のものに入れ替える、という操作を試してみたので、その流れを記しておこうというものです。 inpaintingって何よ ある画像の指定した範囲を別のイメージに置き換える技術です。 上記の例にあるように、例えば椅子の上にいるワンちゃんを消したり[1]、何もない平原に木を追加描画するなど、自由な編集が可能となります。 主な対象読者 Stable Diffusionに触り始めたばかりで、inpaintingの使い方がイマイチ分からないので、どんな感じで使えるのかざっくり知りたい方 可愛い女の子のイラストを眺めたい方 暇つぶしに何か読みてーな、という方 具体的な使い方に関しては、もっと丁寧にまとまっている記事が沢山あるので、ぜひそちらをご参照ください。この記事では大したこと書いてないです。すまんな。 実行環境 グ
キャラをポーズ取らせる方向の記事は他の方に任せて、自分の得意な背景描きの方向で研究しました。 今回の目標は、AI風景画の3D化。 画像からMidasとかで作ったデプスマップはぐにゃぐにゃでとてもポリゴンモデルにできたものではありませんが、ControlNetのDepthならポリゴンから画像を、確実に狙った形にできるのがわかったので、それを利用して背景を3Dポリゴンに焼き込めないかという目論見です。 Blenderでモデリングできて、UVまで作れる人向けの記事です。 BlenderにはすでにDreamTextureというアドオンがありますが 現時点ではまだcontrolnetに対応しておらず、SD1.5しかデプスマップを利用できません。またプロジェクション機能はマテリアルとUVをまるごと書き換えてしまうのも使い勝手が悪いという感想でした。 Blenderでデプスマップを書き出す方法コンポジタ
Stable Diffusionとは Stable Diffusion(ステーブル・ディフュージョン)は2022年8月に無償公開された描画AIです。ユーザーがテキストでキーワードを指定することで、それに応じた画像が自動生成される仕組みとなっています。 NVIDIAのGPUを搭載していれば、ユーザ自身でStable Diffusionをインストールし、ローカル環境で実行することも可能です。 (出典:wikipedia) Stable DiffusionのWeb UI AUTOMATIC1111 AUTOMATIC1111はStable Diffusionをブラウザから利用するためのWebアプリケーションです。 AUTOMATIC1111を使用することで、プログラミングを一切必要とせずにStable Diffusionで画像生成を行うことが可能になります。 Web UI AUTOMATIC11
モデルってなんですか? モデルとは学習済みのデータのことです。別名、事前学習データ。 Stable diffusionにおけるモデルの役割 「checkpoint」とも呼びます。 モデルといっても、データはさまざま。 Stable Diffusionのプリセットモデルでは美麗イラストを生成するのは大変難しいため、追加でモデルのファイルを入手・導入する必要があります。 モデルによって絵柄や出しやすい構図が異なります。 生成したい画像に併せて、適宜複数のモデルを入手&切り替えて使います。 Webには様々な種類のモデルデータが配布されています。 好きなモデルを探してみましょう。 ライセンスや使用制限に注意。 モデル入手時の注意事項 ライセンスや使用制限を必ず確認しよう! モデルの配布ページには、使用上の注意が書いてある場合があります。
画像生成AI・Stable Diffusionを手軽にWindows環境あるいはGoogle Colabに導入でき、コマンドラインではなくユーザーインターフェース(UI)から簡単に操作可能な「AUTOMATIC1111版Stable Diffusion web UI」は他のUIには搭載されていない機能も盛り込まれた決定版とも言えるツールです。毎日驚くべきスピードでアップデートが行われ改善が進むAUTOMATIC1111版Stable Diffusion web UIで、入力した画像から新しい画像を生成できる「img2img」を実際にAUTOMATIC1111版Stable Diffusion web UIで使う方法をまとめてみました。 GitHub - AUTOMATIC1111/stable-diffusion-webui-feature-showcase: Feature showca
Upscale latent space image when doing hires. fixUpscale latent space image when doing hires. fix が有効な場合は潜在空間でアップスケールする。無効な場合は一度初期ノイズ画像を生成してから、その生成したノイズ画像をアップスケールする。そしてアップスケールしたノイズ画像を潜在空間に戻して絵を描く。 なので Upscale latent space image when doing hires. fix を有効にした方が少し早くなる。場所は Settings タブ。 外部リンクadded highres fix feature Stable Diffusion UpscaleStable Diffusion Upscale は以下の工程で画像を拡大する。 画像を RealESRGAN/ESRGAN で
文章を入力すると画像を生成してくれるAI「Stable Diffusion」は、手軽に好みの画像を生成できることから大きな注目を集めており、「NMKD Stable Diffusion GUI」や「Artroom Stable Diffusion」などWindowsに簡単にインストールできる実行環境が数多く開発されています。「Stable Diffusion web UI」もStable Diffusionを簡単に操作できるシステムの一つで、参考画像を指定して好みの画像を生成しやすくする「img2img」に対応していたり、各種設定をスライダーで簡単に設定できたりと使い勝手の良さが際立っていたので、導入方法をまとめてみました。 GitHub - hlky/stable-diffusion https://github.com/hlky/stable-diffusion/ --ULTIMATE
OSは以下です。同じPCでブートを切り替えています。 Windows11 + WSL2(CPU) Linux(GPU) Windowsの方は、GPUだとエラーが出て動きませんでした。理由は深く調査していません。npakaさんの記事を参考にしたほうが良いかもしれません。 OS/Dockerセットアップ OSやWSL2、Dockerのセットアップに関しては以下記事参考にしてください。 Dockerのセットアップに関しては、複数のDockerコンテナを扱うためにDocker Composeもインストールする必要があります。また、GPUを使う場合は、NVIDIA Dockerのセットアップが必要になります。 詳しくは以下記事参照ください。 CPUで最短でセットアップしたいなら、ターミナルで以下コマンドをうてばDockerのセットアップできると思います。
文章での指示にそった画像を生成してくれるAI「Stable Diffusion」には、セクシー描写などの成人向け表現を含む画像を黒塗りするセーフティフィルターが搭載されています。このセーフティフィルターを解除する方法が海外掲示板のRedditで共有されています。 Tutorial: How to Remove the Safety Filter in 5 seconds : StableDiffusion https://www.reddit.com/r/StableDiffusion/comments/wv2nw0/tutorial_how_to_remove_the_safety_filter_in_5/ Stable Diffusionは文章を入力すると文章にそった画像を生成してくれるAIで、2022年8月に一般公開されて以降大きな注目を集めています。Stable Diffusion
目次ワークフロー手元の画像と似た画像を生成したい補正線の太さの補正顔の補正手の補正腰の補正脚の補正書き込み量便利なツール差分生成の実例どのツールを選ぶかStable Diffusion のモデルリンクモデルマージStable Diffusion の解説Guidance Scale (CFG)サンプラーの比較シードDenoising StrengthバッチカウントとバッチサイズGPU の種類と画像生成時間Tips上手く描けない場合はアスペクト比を変えてみる頭や脚がフレームアウトする解像度を上げると頭や体が複数融合するDenoising Strength を下げると画質が落ちる細部の修正手の修正手の自由度高解像度化色のコントロールディティールが欲しいとき ファインチューニングプロンプトプロンプトの探し方外部のプロンプトリンクツールプロンプトの語順プロンプトのウェイトネガティブプロンプトで画力を
こんにちは ポン吉です。 みなさん Midjourney や Stable Diffusionで呪文詠唱しまくって可愛い女の子を召喚していますかぁ~ Midjourneyを使う方法やラズパイでStable Diffusionを使う方法を記事にしましたが、さすがにラズパイは厳しいのでやめました!(オイ) 最近は高レベルな召喚士様がイケている画像を召喚しているのを見かけますが、使っている「呪文(prompt)」までは公開されていないケースが多いですよね。 ワイはそのイケている画像の 召喚呪文が知りたいんじゃー!! 読者 ポン吉 皆さんが苦労して呪文錬成された成果なので 極秘の魔術扱いという感じですね(笑) 呪文詠唱で召喚した女性画像例1 呪文詠唱で召喚した女性画像例1 そんな「素敵な画像を出力したいけど、なかなか呪文詠唱がうまくいかない・・・」とお悩みの召喚士さんのために、高レベル召喚士様の呪
- 2024年04月 (1) - 2024年03月 (3) - 2024年02月 (2) - 2024年01月 (2) - 2023年12月 (2) - 2023年11月 (2) - 2023年10月 (2) - 2023年09月 (3) - 2023年08月 (2) - 2023年07月 (2) - 2023年06月 (2) - 2023年05月 (2) - 2023年04月 (3) - 2023年03月 (2) - 2023年02月 (2) - 2023年01月 (3) - 2022年12月 (2) - 2022年11月 (2) - 2022年10月 (3) - 2022年09月 (2) - 2022年08月 (2) - 2022年07月 (2) - 2022年06月 (2) - 2022年05月 (2) - 2022年04月 (3) - 2022年03月 (2) - 2022年02月
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く