元画像とマスク画像から、マスク画像以外の場所を変換するInpaint機能を使ってみました。 AUTOMATIC1111のInpaintingAUTOMATIC1111を起動 img2imgタグを開きInpaintを選択。元画像とMask画像を上げる Masked ContentはOriginalを選択(※コレ重要) プロンプトを入力してGenerateをクリック。マスク画像の白い領域に生成された画像が入る 参考
![AUTOMATIC1111でInpaintする|ウチダマサトシ](https://cdn-ak-scissors.b.st-hatena.com/image/square/7585b564d71f8153e409a94bff84a77982fa5e40/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F88764991%2Frectangle_large_type_2_a582c1593a7bede56197e01b0ccd4528.png%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)
キャラをポーズ取らせる方向の記事は他の方に任せて、自分の得意な背景描きの方向で研究しました。 今回の目標は、AI風景画の3D化。 画像からMidasとかで作ったデプスマップはぐにゃぐにゃでとてもポリゴンモデルにできたものではありませんが、ControlNetのDepthならポリゴンから画像を、確実に狙った形にできるのがわかったので、それを利用して背景を3Dポリゴンに焼き込めないかという目論見です。 Blenderでモデリングできて、UVまで作れる人向けの記事です。 BlenderにはすでにDreamTextureというアドオンがありますが 現時点ではまだcontrolnetに対応しておらず、SD1.5しかデプスマップを利用できません。またプロジェクション機能はマテリアルとUVをまるごと書き換えてしまうのも使い勝手が悪いという感想でした。 Blenderでデプスマップを書き出す方法コンポジタ
Stable Diffusionとは Stable Diffusion(ステーブル・ディフュージョン)は2022年8月に無償公開された描画AIです。ユーザーがテキストでキーワードを指定することで、それに応じた画像が自動生成される仕組みとなっています。 NVIDIAのGPUを搭載していれば、ユーザ自身でStable Diffusionをインストールし、ローカル環境で実行することも可能です。 (出典:wikipedia) Stable DiffusionのWeb UI AUTOMATIC1111 AUTOMATIC1111はStable Diffusionをブラウザから利用するためのWebアプリケーションです。 AUTOMATIC1111を使用することで、プログラミングを一切必要とせずにStable Diffusionで画像生成を行うことが可能になります。 Web UI AUTOMATIC11
Upscale latent space image when doing hires. fixUpscale latent space image when doing hires. fix が有効な場合は潜在空間でアップスケールする。無効な場合は一度初期ノイズ画像を生成してから、その生成したノイズ画像をアップスケールする。そしてアップスケールしたノイズ画像を潜在空間に戻して絵を描く。 なので Upscale latent space image when doing hires. fix を有効にした方が少し早くなる。場所は Settings タブ。 外部リンクadded highres fix feature Stable Diffusion UpscaleStable Diffusion Upscale は以下の工程で画像を拡大する。 画像を RealESRGAN/ESRGAN で
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く