並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 16 件 / 16件

新着順 人気順

ai_画像生成の検索結果1 - 16 件 / 16件

  • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第一回:実在モデルで学習・LoRAでキャッチライト付加 (西川和久) | テクノエッジ TechnoEdge

    百聞は一見に如かず。これってAI生成グラビア?AI画像生成に興味を持ったのは去年の年末頃だろうか。Twitterを眺めていると「どうやって撮った(作った)んだ?」と言う画像がたまに載っていたので調べると、Stable Diffusion Web UI (AUTOMATIC1111版)だった。 元々グラビアを撮っていたこともあり、あまり撮らなくなってもグラビア好きなのには違いなく、試したくなったのは言うまでもない。 AI生成画像は大きく分けて2種類あり、一つはイラスト系、もう一つはリアル系。筆者が興味を持ったのは後者。どこまで実写に迫れるのかがその興味の対象だ。百聞は一見に如かず。扉の写真はAI生成画像。現時点でこの程度の写りは容易にこなす。 とは言え、実際の撮影もそうなのだが、グラビア写真は数百枚撮ってカメラマンがある程度セレクトし納品したものが、納品先で更に絞られ、出版社などで更に絞り込

      生成AIグラビアをグラビアカメラマンが作るとどうなる?第一回:実在モデルで学習・LoRAでキャッチライト付加 (西川和久) | テクノエッジ TechnoEdge
    • HなStable Diffusion

      前提として、Stable Diffusionでエロ画像を出そうとしてもsafety checkerという機能が入っており、センシティブな画像を出そうとすると黒塗りになる。 (Stable DiffusionのSaaSであるDream Studioはぼかしだが、多分別の技術) https://github.com/huggingface/diffusers/releases/tag/v0.2.3 そこでGoogle Colabでちゃちゃっと環境を作り、なおかつNSFWを回避する。 1. 下記のリンクでノートを開く https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb 2. 下記の箇所を書き換える vvvvvvvvvvvvvvvvvv f

        HなStable Diffusion
      • これが無料でいいのか!? “爆速生成AI”がペイントソフトに革命を起こした (1/5)

        Generative AI for Kritaのライブペインティング機能を実行している画面。左が筆者が描いた落書き。右が、その画像を線画(Scribble)としてAI生成した画像 11月13日掲載の記事「爆速化する画像生成AI」で紹介した新技術「Latent Consistency Models(LCM)」が大爆発しています。これは画像生成AIに2度目の革命を起こした「ControlNet」に次ぐ大インパクトではないかと感じています。「LCM-LoRA」(LoRAはStable Diffusion用の追加学習モデル)が11月下旬に登場したことで、リアルタイム生成のAI機能を組み入れたサービスやアプリの開発が一気に進みました。 なかでも、筆者にとってインパクトが大きかったのが、ペイントソフト「Krita」向けに開発された「Generative AI for Krita」。Kritaはスウェー

          これが無料でいいのか!? “爆速生成AI”がペイントソフトに革命を起こした (1/5)
        • 画像生成AIに2度目の革命を起こした「ControlNet」 (1/4)

          画像生成AI「StableDiffusion」の進化が止まりません。昨年8月にオープンソースとしてリリースされてから、世界中のプロアマ問わず多数の人たちが様々な研究成果を反映させ、毎日と言っていいほど新機能を誰かが発表するという状況が起きています。 StableDiffusion登場当初は、画像の品質のランダム性が高く、構図やポーズなどを指定できないという弱点を抱えていました。1枚の画像をもとに画像を生成する「i2i(image2image)」である程度コントロールすることはできても、「キャラクターに特定のポーズをとらせる」といったことは非常に難しかったんですね。 その状況を一変させる新機能が今年2月に登場しました。その名も「ControlNet」。プロンプトによる制約を克服するための、とてつもないポテンシャルを持つ技術でした。Stable Diffusionに次ぐ「2度目の炸裂」と言って

            画像生成AIに2度目の革命を起こした「ControlNet」 (1/4)
          • ChatGPTによるプロンプトの生成|NyaFu

            えーっと、note初記事です。つたない内容でしかもメッチャ長文ですがお付き合いください。 今回はタイトルにあるように、Stable DiffusionのプロンプトをChatGPTで生成する、今までとはちょっと違うやり方をご紹介します。 簡単なレクチャーも含むのでかなりのテキスト量ですが、最後まで目を通していただければ良いことがきっとあります。 はじめにまずこれからお伝えする技法は現時点でGPT4の使用が前提となっています。(追記:Bingでも可能になりました) 3.5では、私の技量が至らず安定した結果が得られていません。 しかしながら、先だってこの手法をお伝えした有志の方々が3.5及びBingでの実現を模索されていることを予めお伝えしておきます。 今回の手法を発見した経緯とネタバレことの発端は遡ること1か月前、プロンプトを自動でジャンル分けしてデータベースに流し込み、逆にそこからプロンプト

              ChatGPTによるプロンプトの生成|NyaFu
            • 【Stable Diffusion】AIイラストにおすすめなグラボをガチで検証【GPU別の生成速度】 ちもろぐ

              月額料金なし、無制限の生成枚数でAIイラストをガシガシ描くなら、Stable Diffusionをローカル環境にインストールする「AUTOMATIC1111版Stable Diffusion WebUI」が必要です。 しかし、ローカル版AIイラストはグラフィックボードも必須です。 VRAM容量が多くないとダメ RTX 4000シリーズが良い Radeonは絶対にNG などなど・・・。いろいろな情報が飛び交っていますが実際のところはどうなのか? やかもちグラフィックボードをなぜか40枚ほど所有している筆者が、実際にStable Diffusionを動かして徹底的に検証します。 (公開:2023/3/8 | 更新:2024/4/3) この記事の目次 Toggle AIイラスト(Stable Diffusion)におすすめなグラボを検証 検証方法:AIイラストの生成速度をテストする AIイラスト

                【Stable Diffusion】AIイラストにおすすめなグラボをガチで検証【GPU別の生成速度】 ちもろぐ
              • 自分のPCにStable Diffusion入れてる人に聞きたい

                どういうハードウェア構成でなんのOS使ってるのかとか知りたい。 GPUはNVIDIAでやるとして、OSはCUIだけでVRAM使わないようにするとかそういう工夫してるのかな。 俺はAMDのGPUでやってんだけど、やっぱNVIDIA使ったほうが色々と性能とかVRAM消費量とか効率的なんだろうか。 なんでAMDかっていうと、GPU買ったタイミングとStable Diffusion入れたタイミングが違うからだ。いやー苦労したわ。 でかい画像作ろうとするとすぐにメモリ足りなくてコケるし、果たして今作ってる画像サイズにかかる時間が適切なのかとか知りたいことは山ほどあるんだよな。 *** 追記 なんかたくさんブコメとかレスとかついてて驚いた、ありがとう。 今買うならNVIDIAの40番台というのがいいんだな。昔GeForceとか言って売ってた頃の知識しかないからイマイチ型番とかよくわからないおっさんでし

                  自分のPCにStable Diffusion入れてる人に聞きたい
                • 【西川和久の不定期コラム】 「stable diffusion-webui」を無料のクラウド環境「Google Colab」で爆速で動かす!

                    【西川和久の不定期コラム】 「stable diffusion-webui」を無料のクラウド環境「Google Colab」で爆速で動かす!
                  • 【Stable Diffusion】Mistoon_Animeの利用方法

                    「テレビアニメのようなキャラ画像を生成したい」 「2次元のアニメ画像を生成したい」 このような場合には、Mistoon_Animeがオススメです。 この記事では、Mistoon_Animeについて解説しています。 本記事の内容 Mistoon_Animeとは?Mistoon_Animeの利用方法Mistoon_Animeの動作確認 それでは、上記に沿って解説していきます。

                      【Stable Diffusion】Mistoon_Animeの利用方法
                    • 画像生成AIを始めたいけどグラボが高価で諦めている人に朗報、安価なAPUでも大容量なVRAMを割り当てて画像生成可能

                      Stable Diffusionなどの画像生成AIは自身の所有するマシンにインストールしてローカルで実行することが可能です。しかし、快適な画像生成に必要な「大容量のVRAMを備えたグラフィックボード」はPCパーツの中でも高価な部類に入るため、予算の都合から画像生成を諦めている人も多いはず。新たに、安価なAPUでも実用的な速度で画像を生成できたという検証結果がAI関連YouTubeチャンネル「Tech-Practice」によって報告されています。 Democratize AI: turn a $95 chip into a 16GB VRAM GPU! Beats most of the discrete GPUs! | by Ttiotech | Aug, 2023 | Medium https://medium.com/@ttio2tech_28094/51a8636a4719 Demo

                        画像生成AIを始めたいけどグラボが高価で諦めている人に朗報、安価なAPUでも大容量なVRAMを割り当てて画像生成可能
                      • 画像生成AIに“表現の自由”を スーパーハッカーが挑んだ「Fooocus」 (1/4)

                        Fooocusの画面から「girl」で生成した直後。スタート画面では本当に設定項目がほぼない(画像は筆者生成) Stability AIは7月27日、2週間遅れで「Stable Diffusion XL 1.0(SDXL)」をリリースしました。現在、SDXLに対応した動作環境として主要なものとしては「WebUI(A1111版)」、「ComfyUI」の2つがあり、このうちComfy UIの対応が早かったため人気になっています。Stablity AIでは「StableSwarmUI」というWebUIの公式版といった形の動作環境を作っていて、ComfyUIとの統合を進めています。 その一方、SDXLが出てきたことでWebUI、ComfyUI、StableSwarmUIはだんだん導入のハードルが上がってきてしまいました。事前に設定しなければならない要素が多く、求められる専門知識が着実に上がっている

                          画像生成AIに“表現の自由”を スーパーハッカーが挑んだ「Fooocus」 (1/4)
                        • DALL-Eアーキテクチャは何故描写の崩壊が抑えられているのか?|とーふのかけら

                          はじめに 今、巷で高精細で描写の崩壊がしにくいと言われる、OpenAI社のDALL-E 3が話題ですね! DALL-E 3の前身であるDALL-E、DALL-E 2で使用されているDALL-Eアーキテクチャと、現在主流になっているStable Diffusionは何が違うのかを説明していきたいと思います。 今回の内容は、比較的専門用語が飛び交うので、事前知識がないと「???」となるかもしれません。ご了承ください…。 事前知識はこちらをご覧ください。 DALL-Eとは DALL-Eの読み方は「ダリ」です。 DALL-Eはシュールレアリスム画家のサルバドール・ダリが名前の由来になっています。 DALL-Eは現在も進化を続けており、非常に精細で描画の崩壊が抑えられていると話題になっています。 OpenAI社が提唱したDALL-Eアーキテクチャを使用して動作しており、自然な描写、フォトリアリズムに

                            DALL-Eアーキテクチャは何故描写の崩壊が抑えられているのか?|とーふのかけら
                          • Stable Diffusion WebUIにControlNetを導入して好みのポーズの二次元少女を生み出す

                            環境 Windows 11 64bit Chrome 110.0.5481.178 Stable Diffusion WebUIをインストール Python 3.10.6をインストール Add Python to PATHをチェックするのを忘れずに Gitをインストール ZIPファイルをダウンロード ZIPを解凍し、解凍先のフォルダを開いてwebui-user.batをダブルクリックして起動 未認証アプリの確認が出るので、「詳細情報」をクリック アプリ:webui-user.batと表示されているのを確認して「実行」をクリック コマンドプロンプトが起動し、必要なソフトウェアがインストールされる 画像のような表示が出たら、赤枠のアドレスにブラウザでアクセスする (ctrlキーを押しながらURLをクリックするとブラウザが開く) ブラウザに以下の様に表示される StableDiffusionを使

                              Stable Diffusion WebUIにControlNetを導入して好みのポーズの二次元少女を生み出す
                            • NovelAI よりも凄い? AnythingV3 を Google Colab で試す!

                              最新の AnythingV4 が出たので記事書きました! (追記) はじめに NovelAI よりも凄い AI イラスト生成モデルがどうやら出たらしいぞ!! しかも huggingface にモデルが上がっているようで、StableDiffusion を使ってモデルを差し替えれば動くらしいということを知って、試してみたので、その過程を記載しておきます。この記事は基本的に StableDiffusion をモデルを差し替えて試してみるのとほぼ同等で、Google Colab で はじめる Trinart Stable Diffusion の記事を参考にさせていただきました。大変ありがとうございます。 こんな感じで、自分も試してみたのですが、呪文が適当でも結構いい感じの画像が出てきます。しかも、Google Colab の無料の実行ランタイムで動くので、ちょっと重いですがお金もかかりません。

                                NovelAI よりも凄い? AnythingV3 を Google Colab で試す!
                              • NVIDIA Hopper H100の利益率は驚異の約900%。納期は2024年後半まで伸びる可能性も

                                NVIDIA Hopper H100の利益率は驚異の約900%。需要により納期は2024年後半まで伸びる可能性も ChatGPTやMidJourneyなど生成AIブームによって、これらのAIの動作に対して絶大なパフォーマンスを誇るNVIDIAのHigh Performance Computing(HPC)向けグラフィックカードあるHopper H100はChatGPTのOpenAIやFacebook、Oracleなど多くの企業からの引き合いが増えています。このHopper H100などはNVIDIAの収益を支える重要な存在になっていますが、金融コンサルティング会社のRaymond Jamesによると、このHopper H100では驚異的な利益率を誇る事が明らかになっています。 Raymond James estimates it costs Nvidia $3,320 to make a

                                  NVIDIA Hopper H100の利益率は驚異の約900%。納期は2024年後半まで伸びる可能性も
                                • Google Colab ではじめる Stable Diffusion 1.5|npaka

                                  「Google Colab」で「Stable Diffusion」によるテキストから画像を生成する方法をまとめました。 ・Stable Diffusion 1.5 ・HuggingFace Diffusers 0.8.1 1. Stable Diffusion「Stable Diffusion」は、2022年8月に無償公開された画像生成AIです。ユーザが画像内容を説明するテキスト(プロンプト)を指定することで、それに応じて画像が自動生成されます。 2. HuggingFace Diffusers「HuggingFace」は、人工知能のライブラリ、モデル、データセットの共有サイトです。「HuggingFace Diffusers」は、「Stable Diffusion」をはじめとする拡散モデルの各種実装およびモデルを、共通インタフェースで簡単に利用するためのパッケージになります。 3. Co

                                    Google Colab ではじめる Stable Diffusion 1.5|npaka
                                  1