AIは漢字が苦手だ。 画像生成AIに漢字が書いてある紙、などと指示をするとそれっぽいけど存在しない漢字を出してくる。 その漢字が好きなので、僕らがAIが書く漢字を書いてみよう。 (AIが漢字が苦手というのは2024年6月現在の話です)
タイトル通り、入力線画を(基本的には)1pixelも変えずに画像生成AIに色塗りをさせる方法について解説していきます。 本題に入る前に そもそも画像生成AIによる色塗り(着彩)について知らない方向けに、既存技術でAIに色塗りをさせるとはどのような事を指すか?またどのような課題があるか?について一度整理します。 画像生成AIによる着彩 テキストから画像を生成できるという事で一躍有名になった画像生成AIですが、テキストだけでは生成したい画像を詳細に指示することが困難であるという課題を抱えていました。 そこで、テキストと比較してより具体的に生成したい画像を指示する方法として。ControlNetを用いた画像とテキストを入力して新たな画像を生成する手法が現れます。 この応用として、色塗りがされていない線画と指示テキストを入力することで、入力した線画に対し色を塗った状態の画像を生成するという方法が存
1/AIモデルの選定 いつものように、漫画のシナリオ、ネームを考えます。今回は「兎と亀」をベースに、GPU購入の話にします。 今風の漫画絵を生成するのに最適な画像AIは、SDXLアニメ系モデル、Novel AI、niji・journey辺りでしょう。第1回で主に使ったDALL・E3は、プロンプトの通りはピカ一ですが微妙に絵柄に古さがあるので、今回のテーマには向きません。 Midjourneyとniji・journeyは構図力も画力も高いので参考資料として使うには最適なのですが、自分は特に商業でこのモデルは使用しない事にしています。何故ならプロンプトに含めなくても版権デザインが紛れ込みやすいためです。 例えば「剣を持った青年」を出してもらうとします。青年はオリジナルのデザインだったとしても、剣だけ版権のデザインがモロに出る、みたいな挙動がMidjourneyやniji・journeyでままあ
こんにちは、漫画界の生き恥こと野火城と申します。 「画像AI使ってみた/AI漫画実験企画」第2回です! ■第1回はこちら 実録:AIで描く漫画の実際 ~体験して見えた、その実力と課題!! その成り立ちから様々な議論を呼んでいる画像生成AIですが、少なくとも2024年3月現在日本の法律では使用が許可されており、存在を完全に無視する事はできません。かといって全てを肯定して受け入れるのも難しい。 だからこそ、必要以上に恐れず、実際にどのような事が出来るのか、具体的に検証する――それが画像AIとの誠実な向き合い方なのではないでしょうか。 「画像AIの技術がすごいという賞賛記事はよく見るが、それは本当に創作活動で実戦的に使えるものなのか? 『AIに仕事を奪われる』と『今のAIは実戦では使い物にならない』という真逆の意見を多数見るが、この二つは両立しないのでは? 実際はどっちなんだ?」「画像AIを試し
この連載ではおなじみのキャラクター「明日来子さん」に右側からライトを当ててみた。左がIC-Lightを適用したもので、右がオリジナル。環境はWebUI Forge用の拡張機能を使用 5月8日に、「ControlNet」など画像生成AI関連の著名研究者であるイリヤスフィール(lllyasviel)さんが発表した「ICライト(Imposing Consistent Light、印象的な一貫的なライト)」が盛り上がりました。入力した画像をもとに、後から指定した照明効果を踏まえた画像を生成する技術です。 画像生成AIで照明効果がつけられる「ICライト(IC-Light)」 発表された学習済みモデルは、「ライトを指定すると、キャラクターのデータに合わせてテキストのプロンプトに合わせて独自に背景を生成するもの」「キャラクターとライトの影響を加味して、別の背景画像と合成するもの」の2種類があります。これ
Stability.AIは5月10日、同社の画像生成AI製品「Stable Diffusion 3」や「Stable Video Diffusion」などを、競合サービス「Midjourney」のように「Discord」上で利用することができるサブスクリプションサービス「Stable Artisan」の運用を開始した。 豊富な編集ツールも用意 これまで同社の画像生成AI「Stable Diffusion」シリーズは、ローカル環境にダウンロードして利用するのが主流(APIもあり)だったため、高性能のグラフィックボードが必要になるなど利用のハードルが他社サービスと比べて少し高かった。 今回発表されたStable Artisanに加入すれば、コミュニケーションプラットフォームDiscordを利用して、誰でもすぐに画像生成を楽しむことができるようになる。特に、これまでAPI経由でしか利用できなかっ
コンテンツブロックが有効であることを検知しました。 このサイトを利用するには、コンテンツブロック機能(広告ブロック機能を持つ拡張機能等)を無効にしてページを再読み込みしてください。 ✕
lllyasviel氏復活第一弾のIC-Light前回(第23回)にControlNetやFooocus、stable diffusion webui forgeを作ったlllyasviel氏、ここ数ヶ月Xなどに書き込みが無いと書いたが、いきなり驚くべき仕掛けを提げての復活。その名もIC-Light(Imposing Consistent Light)。Stable Diffusionの技術を使って、照明を自由にコントロールできる仕掛けだ。 これまでStable Diffusionでは、SD 1.5、SDXLに関わらず、Promptで光や照明などの指示はできたのだが、どのように反映されるかは、Modelやその他の設定しだい。例えば backlight, soft bounced lighting, soft natural lighting, candolelight, neon ligh
Stable Diffusionはそのままでも十分きれいな画像を描いてくれますが、自分の好みに合った画風の絵を描いてくれなかったり、特殊な構図を指定しても理解してくれなかったり、いまいちかゆいところに手が届かない、と思うことがあるでしょう。 そんな時、Stable Diffusionに新たな絵柄や構図を教えて、自分の好みに近い絵柄や構図の画像を生成させることができます。 その仕組みが「追加学習」です。 追加学習の方法はいくつかありますが、今回は、現在主流になっている「LoRA」という手法について簡単に解説し、LoRA学習を行うのに必要なプログラムを導入する方法を説明します。 注意: 今回の解説にあるKohya_ssのインストール手順はWindow向けです。Mac/Linuxと共通する部分もありますが、手順はWindowsマシンにインストールすることを想定しています。 Loraとは Lora
PCローカル環境で動作する大規模言語モデル(LLM)「Command R+」を使っていますが、相当優秀です。体感ではChatGPT(GPT-4)と変わらないレベル。さらに、ChatGPTが回答を拒絶するような会話もできてしまいます。 【もっと写真を見る】 PCローカル環境で動作する大規模言語モデル(LLM)「Command R+」を使っていますが、相当優秀ですね。体感ではChatGPT(GPT-4)と変わらないレベル。さらに、ChatGPTが回答を拒絶するような会話もできてしまいます。これが体験できるようになったのは、LM Studioに代表されるローカルLLMを動かすためのアプリ環境が整ってきたためです。今年に入り、Command R+を始めとしたローカルLLMが高性能化してきたことと並行し、手軽に使える派生モデルも増えはじめ、一気にあわただしくなってきました。 導入が難しかったローカル
ControlNetの開発者として知られるLvmin Zhang氏が、画像の光源の位置や光源の種類を自由に指定できる画像編集AIツール「IC-Light」を公開しました。 GitHub - lllyasviel/IC-Light: More relighting! https://github.com/lllyasviel/IC-Light IC-Lightは画像の光源の種類や位置を指定しつつ背景を別物に置き換えられるAIツールです。IC-Lightはローカルにインストールして使用可能。さらに、インストール不要で使えるデモサイトも用意されていたので、実際にデモサイトでIC-Lightを使って画像を加工してみました。 IC-Lightのデモサイトには、以下のリンクをクリックするとアクセスできます。 IC Light - a Hugging Face Space by lllyasviel h
画像生成AI関連の著名な開発者、lllyasviel(イリヤスフィール)氏が5月7日、生成AI画像の照明を自在に操作できるツール「IC-Light(Imposing Consistent Light)」を公開した。 2種類のモデルを公開 IC-Lightは画像の照明を操作するプロジェクト。前景画像(人物やオブジェクトなど)を入力し、プロンプトにテキストや背景画像を指定するだけで、まるで別の環境で撮影したかのような画像を得ることができるという。 現在、「テキスト条件付きリライティングモデル(text-conditioned relighting model)」と「背景条件付きモデル(background-conditioned model)」の2種類がGitHubで公開されており自由に試すことができる。 なお、作者のlllyasviel氏は「Stable Diffusion」のWebUIであ
こうした動きと並行して、OpenAIは一部の映像クリエイターにSoraを試用してもらい、その作品を積極的に公開しています。中でも僕が注目したのは、「パンクロック・ピクサー」の異名を持つshy kidsというカナダの映像プロダクションが制作した「Air Head」です。これは頭が黄色い風船で出来ている主人公が、自転車に乗ったり、サボテンだらけの通路を歩いたり、風に飛ばされた頭を胴体が追いかけるといった内容の、アイデアに満ちていてAI生成動画の可能性を示す1分21秒の小品でした。 ところが、4月半ばにfxguideというオンラインメディアがshy kidsを取材して、Soraの実際の使用感を語った”Actually Using SORA”という記事を掲載したのです。 それによると、Soraも他の動画生成AIと同じく、どのような映像が生成されるかはスロットマシン(昨今の日本風にいえば、ガチャ)の
すがやみつる @msugaya 私も試してみました。プロンプトは、以下のとおりです。 ***** 『ゲームセンターあらし』というタイトルのマンガがありますが、このマンガに関係なく、タイトルだけのイメージから、美少女がゲームセンターで激しくゲームをプレイする絵を、マンガタッチで描いてください。 ***** こちらの方が年齢が高そうですね(^_^)。 ChatGPT経由でDALL-E3に描いてもらいました。 2024-04-30 22:26:48 ジロー @i9r82k こんこんばんばん 本日夜便は、ゲームセンターあらしより「ゲームセンターあらし」です ゲーセンというか、カラオケじゃないか? 黒髪ショートカットって意外に珍しい気がする なんか悪友というか、腹を割って話せる関係っぽい感じがします #画像生成AI #美少女 pic.twitter.com/8SF9NJb1QR 2024-04-30
Googleは2024年第1四半期(1~3月)には広告関連で700億ドル(約11兆円)もの売上を記録しており、インターネット広告市場では依然としてトップのシェアを誇っています。そんなGoogleが広告ポリシーを更新し、「露骨な性的表現やヌードを含むように変更または生成された合成コンテンツの宣伝」を禁止するとしました。これにより、ディープフェイク(AI技術を用いて作成される本物と見紛うような偽画像・動画)で作成されたポルノコンテンツである「ディープフェイクポルノ」を作成することができるサービスの宣伝が禁止されることとなります。 Google bans advertisers from promoting deepfake porn services - The Verge https://www.theverge.com/2024/5/3/24148368/google-ad-policy-
stable-diffusion-webuiで使用しているpythonのバージョンを変更する2023年4月20日(木) 2時36分43秒 | 6583 view | stable-diffusion-webuiではpython3.10.6の利用が推奨されています。GitHub issueによると3.11.xでは動作しないようです。また3.10.x未満のバージョンでも動作するようですがxformersが使えなかったりといろいろ制限があったので3.10.6にpythonのバージョンを合わせ変更したところ、ハマったので共有します。 原因最初のlaunch.py実行時にtorchなどの依存関係をまとめてインストールしますがその際に別バージョンでのインストールしたものが残っている場合、pythonのバージョン変更をするとエラーが出てしまうようでした。 対処法stable-diffusion-webu
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く