ChatGPTの新しい画像生成AIのDALL-E 3は、かなり自由に画像をコントロールすることができます。 1.リアル画像のコントロール>20代の日本人女性の写真を作成してください。 生成された画像>3番目の女性の眼鏡をはずして、喜怒哀楽の表情を見せてください。 生成された画像※1枚目の画像以外は眼鏡をはずしてくれませんでした。また、喜、怒、哀の表情は描いてくれましたが、楽の画像は生成できませんでした。 >この女の子を、1.走らせてください。2.座らせてください。3.ジャンプさせてください。4.逆立ちさせてください。 生成された画像※3枚目までは上半身だけの画像なので、ジャンプしているかどうかはよく分かりません。4枚目はちゃんと逆立ちしています。 >縦長画像にして、全身を見せてください。 生成された画像4枚目の画像※これで、3枚目の画像がちゃんとジャンプしていることが分かります。4枚目は、
はじめにはいどうも私だよ、「flat」とかのLoRA作った2vXpSwA7だよ! 今回はまぁ……私がどうやってLoRA作っているのかとか、その辺さらっと書いてまとめていこうとかそんな感じの試みなんだよ。 ま、今回の内容はコピー機学習法を知らない人向けの、基本的な流れを書いた記事だから、大体は既にいろんな人が解説してる内容になるとは思うよ。 あ、最低限LoRAの学習自体は分かる前提で進めるからね! LoRAを作る1.で、今日は何作るの?はーいというわけで、今回作るLoRAのご紹介ですよー。 これは適用すると、出力がモノクロに近づくLoRAだね。 最初だから、作るのが簡単なモノにしてみたんだよ。 コレ効果弱くて完全にモノクロ化はしないんだけど、出力の調整用としては十分じゃないかな。マイナス適用で色味が濃くなる効果もあるね! このモノクロ化LoRAを作りながら、コピー機学習法の基本の流れを説明す
すっごいネタ来ました! この記事を読んでできるようになること ・プロンプトの自然言語←→羅列表記変換 ・適当な文章(日英問わず)のプロンプト化 ・作成したプロンプトのランダム生成 ・日本語での要約 ・プロンプトの微調整 まずは、こちらを読んでください! 間にJSON変換をかませるだとっ!? こんな面白いネタ、そりゃもうやっちゃいますよね。 てことで、半クローズな環境でNyaFuさんにすっごいGPTプロンプトを見せてもらったので、さっそくどんどんと手を入れてしまいました。(NyaFuさん、その節はすいませんでした) その後、快く了承いただけたので、今回はコラボ記事を書かせていただきます!みんなもNyaFuさん、フォローしようぜ! 仕組みと考え方についてはNyaFuさんの記事でしっかりと確認しておいてください。使い始めてから自分用にカスタマイズしやすくなります。 ChatGPT-4もしくはBi
ControlNet(v1.1)の詳しい解説!輪郭やポーズから思い通りの絵を書かせる【Stable Diffusion】 AIイラストはPromptだけだと思い通りのポーズが出せない。そこで既存の線画やポーズから出力をコントロールする手法がControlNet。できるだけ細かいところまで設定を見ていく。 ControlNetがv1.1にアップデートされたため随時記事更新中!推定モデルの解説はほぼ網羅(一部あまり使われてないと思われるものは掲載していない) かなり頻繁に更新しているため、履歴を最下部に掲載 最終更新時のControlNetのバージョン:1.1.201 はじめに この記事はStable DiffusionのExtensionであるControlNetのより深い解説を目指す。 なにをするもの? 今まで殆ど運任せだった画像生成だが、ControlNetを使うことである程度ユーザーが
GPT-4/ChatGPTと画像生成(Stable Diffusion)の組み合わせを試したら、とんでもないクォリティのイラストができたので記事にしました。GPT-4に情景描写をさせてプロンプトに変換するものですが、あまりにGPTの描写能力が強いです。もう人間が1からプロンプトを作る時代は終わったのではないでしょうか。 はじめに あまりにやばい画像ができたので公開するかどうか迷っていたのですが、そのうち誰か公開しそうだったので公開します。 GPTを使って画像生成のプロンプトを生成するのは誰でも思いつきそうなものなのですが、特に最近出たGPT-4では得意な内容がある程度明らかになってきました。 エンジニア兼SF作家がGPT-4執筆支援を実戦投入できないか実験してわかったこと これを見ると、 文章構成 情景描写や人物描写 どこかに当てはまる言葉を探索したい このへんが強いそうですね。あれ、ちょ
今のGPT4は実践投入レベルの使い方もあれば、そうでない使い方もあると思っている。今回のポストでは、私がやった執筆支援の実験を8つほど紹介し、物書き目線から3段階評価した。○は作品制作にすでに実戦投入している利用方法。△は自分が実作に活用はしていないものの、ユーザビリティが良くなれば使いたいと思えるもの。×は現状だと使い所がない、ありがたみがないなと思ったものである。 1)AI読者モニター:書いた小説を読んでもらって感想や質問をGPTに自動生成させる → △使って意味ある場面はありそうPython-docxを利用して該当の位置にGPTの感想や質問を自動挿入 できた〜!ボタン1つ押せばChatGPTにWordで小説を読ませて「ここまで読んだときにこういう感想を持ったよ」とか「こういう疑問を持ったよ」みたいなことをコメントさせられるようになった。仮想モニタ読者の反応をヒントに執筆支援ができんじ
の使い方をご紹介するという内容になっています。 Stable Diffusion系のモデルを使って美少女イラスト等を生成している方であれば、キャラクターの手や指がグチャグチャになってしまう問題に悩むことが多いと思います。この問題に関しては今まで多くの解決策が模索されていましたが今一つ決定打と呼べる案がありませんでした。 しかしそんな中で「ControlNet」と呼ばれる新技術が登場し、これを活用して手や指の問題をある程度解決する方法が考案されました。そして先日にはこの方法をStable Diffusion web UIで簡単に使える無料の拡張機能が登場したので、ぜひ情報を共有しておこうと思った次第です。 ここではその拡張機能「Depth map library and poser」について、インストール方法や使い方を解説していきますね。 ※2023/04/17追記: 最新のControlN
この記事で書くこと stable-diffusion-webuiを100時間くらい触った上で、手っ取り早くクオリティを上げるために知っといたほうがいいこと テクニック、記事リンク、関連サービスを書きます 筆者はWebエンジニアだけどAI素人です 言葉もあやふやなので修正歓迎です この記事で書かないこと 導入方法 エンジニアはもちろんgitで導入したほうが更新が楽でよいです 先に知っておきたい知識 モデル 絵や画風を学習させた大元の心臓部。これを変えると同じプロンプトでも全く別の絵になります モデルは checkpoint と言われていて 拡張子.ckpt または .safetensor で配布されてます ckptは任意のコードを実行できる問題があるので、できればsafetensor形式のモデルを入手しましょう vae 出力される絵の塗り、明るさに影響する 好きなモデルとvaeを組み合わせる
画像生成AIで出力したイラストの投稿サービス「MajinAI(まじない)」は、好みの画像を検索ワードやモデル名で絞り込んで検索できるサービスです。イラストを生成する際のプロンプトやモデルデータの参考になりそうだったので、実際に使ってみました。 MajinAI https://majinai.art/ja/index.php 上記のリンクからMajinAIにアクセスすると、画面上部に検索欄、下部にイラスト一覧が表示されます。 検索欄では、イラストのタイトルやプロンプトに含まれる語句を入力して、イラストを検索できます。今回は「christmas(クリスマス)」と入力してから「Search(検索)」をクリックしてみました。 すると、画面下部にクリスマス関連の画像がズラリと表示されます。気になる画像を見つけたら、クリックして詳細画面を表示します。 イラスト詳細画面には、イラストのタイトルやプロンプ
たまに質問いただいたりいただかなかったりするので自分がAIイラストを投稿するまでの手順をできるだけ詳細に記してみます 基本的に以下の記事のパクリです 使用しているものは AUTOMATIC1111 氏の stable-diffusion-webui のみです(加筆修正、色調補正などは行わない方針) -1. 3行要約と完成品 ・テーマは「和装の女...
Marianne Guenot [原文] (翻訳:仲田文子、編集:Toshihiko Inoue) Jan. 27, 2023, 07:00 PM サイエンス 32,373 多くの観光客が訪れるローマ、パンテオン。2022年5月12日撮影。この建物に使われている古代ローマのコンクリートはなぜ耐久性が高いのか、その秘密が解明されたようだ。 Raul Moreno/SOPA Images/LightRocket via Getty Images 古代ローマのコンクリートは、現代のコンクリートよりも信じられないほど耐久性が高い。 科学者たちは長い間、何がその驚異的な強度を生み出しているのか不思議に思っていた。 そしてある研究チームが、コンクリートに含まれる、これまで欠陥とみなされていた小さな白い斑点に着目し、その謎を解明したようだ。 ローマ人はどのようにして強いコンクリートを作り、2000年以上
【この記事の要約】有料会員登録が必須だよ 10ドルのプランで1000クレジットが毎月付与されるよ 画像生成はだいたい1回5クレジット消費するよ プロンプトはシンプルなほうがいい結果がでやすいよ 【注意】有料会員でないと使用できません会員登録は無料でできますが、現時点では試用の無料クレジットではお絵かき機能は利用できないようです。ご注意ください。 NovelAIで会員登録NovelAIにアクセスして、会員登録をします。 下のページから会員登録してください。 https://novelai.net/register Get Started. 画面でメールアドレスとパスワードを入力し「Start Writing」をクリックしてください。 確認メールが届くのでメール中のURLを開き、認証を完了します。 ログインページで先程作成したアカウントでログインすると、下記のページにリダイレクトされます。左側
その日、私はなんとなく思い付きでそのキーワードを入れた指示文をMidjourneyに与えました。 Three Kingdoms, Warlords, 3D, 12K, octane render, cinematic lighting, Photorealism --testp Discordで見かけるMidjourneyの絵柄はヨーロッパの神話のキャラクターやアニメやゲームのキャラクターが多く、自分で書いた小説の挿絵にしたがる人が多かったりするのでファンタジー的な要素の多い絵をたくさん見かけます。その分アジア的な絵柄はあるようでない。 日本的な絵柄は「anime」や「kawaii」という要素ならば有効ですが伝統的な日本の絵柄はなかなか難しい。「北斎」と入れても出てくるのは波ばかりでそれ以外の絵柄を描かせることは不可能に近い。黒人の絵もうまく描けているのに。アジアは難しいのだろうか。ならば
テキストを入力するとそれに沿った内容の画像を AI が出力してくれるサービスが流行っている。今回紹介する「DALL·E」や Discord 上で展開する「Midjourney」などである。 「Midjourney」は Discord のコマンドを入力して使うのだが、前提となる Discord の使い方がよくわからず利用を諦めた。「DALL·E」は登録方法も使い方も既存のWebサービスと同じなのでこっちを使うことにした。招待されるのを待つ必要があるが、ウェイティングリストに登録してから 2日後 には招待されたのでそこまで苦でもないだろう。 DALL·E の登録方法 DALL·E の使い方 AI に指示することの難しさ 狙ったキーワードの絵は生成できない キーワードを羅列するだけではダメだ 可愛い初音ミクのイラストを無限に生成する 初音ミクを題材に選んだ理由 まずは素振りから 画風の方向性 と
自宅用に使えるワールドをBoothで販売してたりします。 ワールド制作の役に立つかなー、と思ってAI画像生成に手を出してみた、という次第です。 DALL·E 以前からAI画像生成自体、ワールド制作の何かに使えそうだなー、とうっすら考えていたところ、DALL·EというAI画像生成のサービスの噂を聞き、Waitlistに並んで3ヶ月ほどが経ちました。 そして先日、ついにアクセス権を手に入れた…!! とりあえず試してみると… え……すご…(言葉を失う)いや、なにこれ、すご… もうなんにでも使えるじゃん。 よっし、いろいろ試すぞー!!! …となっていたところだったのですが、ベータテストと方針が変わり、無料体験分を使い切ると15$で115回分のチケットを購入する、という方式になっているようでした。 まー、そりゃそうだよねー。サーバー負荷とかすごそうだし… 凄い画像を生成できるならそれでも安いかー で
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く