発表後、悪い意味で話題になってしまっていた画像生成AI「Stable Diffusion 3 Medium(SD3M)」に動きがありました。開発元のStability AIは、Weta Digitalの元CEOのプレム・アッカラジュ(Prem Akkaraju)氏がCEOに就任し、新たな資金も調達しました。これで組織として当座の危機は脱したと言えそうです。また、Stable Diffusion 3(SD3)のライセンスについての変更を打ち出してきました。果たして失われた信頼は取り戻せるでしょうか。 人気モデル「Pony Diffusion」開発者との対立 基本的な情報からすると、やはり、SD3Mはコケたと言っていい状況です。参考情報となりますがGoogleトレンドを見てみると、6月12日のリリース直後は1日で150万ダウンロードされるほど注目を集めていたものの、すぐにシュリンクしてしまって
対話型AIサービス「ChatGPT」で使われている自然言語モデルの核になっている技術が「Transformer」だ。自然言語処理を例に、Transformerの仕組みを解説する。 実は、エンコーダーとデコーダーに用いられている「RNN」(Recurrent Neural Network)には、欠点があります。それは、長い文章が苦手だということです。 なぜ苦手かというと、以下の2つのポイントからそのように言えます。 (1)RNNでは、翻訳元文章全体の特徴を記憶できるサイズが固定されている。そのため、文章が長くなり単語の数が増えるほど、エンコーダーにおいて、文章の前の方で出現した単語の意味が薄まってしまう。 (2)RNNでは、単語を1つずつニューラルネットワークで処理する。そのため、単語の数が多くなればなるほど処理時間がかかってしまう。 ですので、RNNが持つこうした欠点を解消するための仕組み
AIで生成した画像を使った漫画の著作権がアメリカで物議を醸したり、漫画の設定やあらすじを提案してくれるAIサービスが登場したりと、AIは絵やイラストの生成だけでなく漫画作品の制作にも活用されるようになってきています。中国のByteDanceと南開大学の研究チームが、ストーリーのある漫画を出力できるAIモデル「StoryDiffusion」を発表しました。 StoryDiffusion: Consistent Self-Attention for Long-Range Image and Video Generation https://storydiffusion.github.io/ StoryDiffusionは、統一感のある漫画キャラクターを出力することが可能です。例えば、以下は上からコマドリ、リス、ハリネズミのキャラクターを、左から順に「ベッドで起きる」「朝食を食べる」「道路にいる
はじめにこんにちは、AI Picasso社の開発チームです。ふたたび、皆様に重要なお知らせがあります。高品質AIアート用画像生成AI、Emi 2 を商用利用可能で無償公開します。この画像生成AIは商用利用が可能であり、追加学習において無断転載画像を学習していません。 Emi 2 は以下のURLにて無料で利用することができます。 Emi 2の特徴1.AIアートへさらに特化このモデルは、イラストやアニメ、マンガのようなAIアート生成に特化しています。GMOインターネットグループが提供する「ConoHa byGMO」のトライアル版の採用により最先端の開発機材NVIDIA H100によって作られた画像生成Emi、モデルマージやフルファインチューニングといったAI Picasso社のノウハウを用いて高品質な画像が生成されるように尽力しました。参考として簡単な生成例を以下に紹介します。 比較のために、
※本ページは、アフィリエイト広告を利用しています。 「はじめてでもここまでできる」の本書タイトル通り、読んで3時間ほどでStable Diffusionの画像生成を思い通りにできるようになりました! Stable Diffusionでどんなことができるのかは知っていましたが、実際に自分のPCにセットアップし、プロンプトによる画像生成をはじめ、色塗り指定や画風指定、キャラをAIに学習させての画像生成までできました。Stable Diffusion初心者の人にお勧めの解説書を紹介します。 また、少しやってみたけどTextual InversionやControlNetやLoRAなどがうまく使えない、そんな人にもかなりお勧めです。 本書は「はじめてでもここまでできる」というタイトル通り、初心者向けの解説書です。そして「本格活用」とあるように、ただ使えるようになるだけでなく、塗りの書き込み感、色塗
米Metaは4月5日(現地時間)、Instagram、Facebook、Threads上に投稿されたAI生成画像への「Made with AI」ラベル表示を5月から本格化させると発表した。“業界標準のAI画像指標”を検出した場合、またはユーザーがAI生成だと明らかにした場合にラベルを付ける計画だ。 AI生成コンテンツへのラベル表示については2月に発表済みだが、Metaの監視委員会からのフィードバックに基づいてメディアポリシーを更新する。 従来のポリシーで禁止されていたのは、AIを使って作成・編集された、言っていないことを言わせる動画などに限定されていたが、監視委員会はこのアプローチは範囲が狭すぎると主張し、Metaもこれに同意した。 5月からは、Google、OpenAI、Microsoft、Adobe、Midjourney、Shutterstockなどのツールで生成され、指標が残されてい
2月29日に、文化庁で「文化審議会著作権分科会」の第7回が開催されました。著作権の専門家によってその制度について議論をする場ですが、今年度は2023年7月より「AIと著作権」について議論されてきました。3月に文化庁から政府に報告する「AIと著作権に関する考え方について(素案)」の最終案に近いものが発表され、1月下旬から2月上旬にかけて募った「パブリックコメント(パブコメ)」の結果報告もされるということもあり、注目されました。登場したのは「AIと著作権に関する考え方について(素案)令和6年2月29日時点版」、パブコメの結果を受けて、これまでの内容に微修正が施されていました。しかし、そこからわかったのは、文化庁の一貫したスタンスでした。 文化庁 文化審議会 著作権分科会 法制度小委員会(第7回) パブコメへの反応は「素案の内容周知」 発表物から議論を集めたのが発表資料に「パブコメの結果」が追加
テキスト-画像生成AIは物語性のある複数の画像を生成するのが苦手だ。複数の画像で、設定に一貫性を持たせるのが難しいからだ。だが最近、物語を一度入力すると、それに合った一連の画像を生成するサービスが登場した。 by Will Douglas Heaven2024.03.07 177 13 13年前、ジャーナリズムの授業の宿題で、私は高級キャットフードを食べる男に関する馬鹿げた短い物語を書いた。今朝、私は「ロア・マシーン(Lore Machine)」という生成(ジェネレーティブ)AIプラットフォームが、自分の書いたおかしな話に命を吹き込むのを座って眺めていた。 自作の物語をテキストボックスに入れると、次のようなメッセージが出た。「シーン、ロケーション、キャラクターと、雰囲気を特定しています。このプロセスには最長2分かかる場合があります」。ロア・マシーンは、テキストを分析し、キャラクター描写と言
OpenAIは1月10日、カスタムバージョンのGPTを作成できる「GPTs」機能で作成した多様なGPTを探索できる「GPT Store」の公開を予告通り開始した。今回はストアーのラインアップから画像生成系の「DALL·E」カテゴリーを取り上げてみよう。 「DALL·E」カテゴリー 「DALL·E」カテゴリーには言うまでもなくOpenAIの画像生成AI「DALL·E 3」を便利に使うために作られたカスタムGPTが掲載されている。今回は上位6個のGPTを使ってみることにする。 まずは「DALL·E」カテゴリーのトップ「image generator」というGPTを試してみよう。説明欄には「プロフェッショナルかつフレンドリーなトーンで画像を生成し、洗練させることに特化したGPT(A GPT specialized in generating and refining images with a
Stability AIは日本語向け画像言語モデル「Japanese InstructBLIP Alpha」を一般公開しました。入力した画像に対して文字で説明を生成できる画像キャプション機能に加え、画像についての質問を文字で入力することで回答することもできます。 Japanese InstructBLIP Alpha「Japanese InstructBLIP Alpha」は、先日公開された日本語向け指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」を拡張した、画像を元にしたテキストが生成されるモデルです。 「Japanese InstructBLIP Alpha」は、高いパフォーマンスが報告されている画像言語モデルInstructBLIPのモデル構造を用いております。少ない日本語データセットで高性能なモデルを構築するために、モデルの一部を大規模な
画像生成AIの躍進が目覚ましい。エンジニア兼SF作家の筆者としては、AIが絵を描けるようになるのなら、絵が描けない自分でも漫画制作ができるようになるのではという期待があった。実際に2022年の末頃にはstable diffusionを使った漫画制作UIのプロトタイプを作ってみたこともある。 Google ColabでAI漫画制作用のUIを試作してみた。コマごとにプロンプトが割り当ててあって、AIが裏でたくさん選択肢を作りまくってくれる。人間が大量の絵からベストなものを選んだり、構図やセリフの調整に集中できるようなワークフローがいいのではないかという仮説 #stablediffusion pic.twitter.com/zI64zm3cNI — 安野貴博 (@takahiroanno) November 10, 2022 それから半年以上の月日が経ち、世の中でもMulti ControlNe
We are beginning to roll out new voice and image capabilities in ChatGPT. They offer a new, more intuitive type of interface by allowing you to have a voice conversation or show ChatGPT what you’re talking about. We are beginning to roll out new voice and image capabilities in ChatGPT. They offer a new, more intuitive type of interface by allowing you to have a voice conversation or show ChatGPT w
「AIいらすとや」など、権利クリアな画像生成AIを開発してきたAI Picasso社は、アニメ・マンガ風のイラストを生成できる画像生成AI「Emi」(Ethereal master of illustration)を9月25日に無償公開した。 Stable Diffusionベース。追加学習で無断転載画像を学習させておらず、権利がクリアな点が特徴。商用利用も可能だ。 Stable Diffusion XL 1.0と NVIDIAのGPU「H100」に、同社のノウハウを組み合わせて開発。最近の画風になるよう調整した。 追加学習に「Danbooru」などの無断転載サイトを使っていない。クリエイターの意見を聞きながら開発したという。 同社の従来のモデルと異なり商用利用可能にした。画像生成AI普及に伴い、創作業界に悪影響を及ぼさないようマナーを守る人が増えてきたことや、他の画像生成AIが商用可能な
この記事は、一度使われて終わるような、ChatGPT にちょっとした機能を追加しただけの GPTではなく、本当に使われる素晴らしく便利な GPTs を作成、開発するための教科書として、書きました。 今までの GPTs 開発関連の情報を全てまとめた内容になっています。 この note 一冊を読めば、GPTs 制作の基礎から応用まで全部わかります。 記事の内容は必要に応じて適宜アップデートしていきます。 目次は以下です: 第1章 GPTsの概要とその可能性そもそも GPTs とはなんでしょうか? 一言で言うと、ChatGPTを自分独自に大幅にカスタマイズできる機能とそのカスタマイズされたAIのことです。 ただし、GPTsを単なるChatGPT のいち機能の一つとして考えるのは非常にもったいないです。 OpenAI は、GPT Store という、他の人が作ったGPTsを使えるようになるストアの
OpenAIの画像生成AI「DALL·E 3」を用いて、自分の写真をもとに、アバターとして使えるプロフィール用画像を生成してくれる「Free Profile Picture Generator」が登場しました。 Free Profile Picture Generator using DALL-E 3 https://www.headshotpro.com/tools/free-pfp-generator サイトにアクセスすると、どんな画像が作れるのかというサンプルがずらっと並んでいます。 画像を作るには「Upload one photo」のボタンをクリック。 ダイアログが開くのでベースとして使いたい画像を選び、画像のスタイルを「Flat illustration」「3D rendered」「Comic book」「Anime」「Chibi Cartoon」の5つから選びます。今回は「Fl
AIアニメの作り方を説明していきます。 ざっくりな説明は上の動画を見ていただければわかるんですが、 少し細かい説明がこの記事になります。 完成物これはワンダープロジェクトJ2というゲームの二次創作アニメですが、30年近く前の作品です。 今回の流れは ・AIの一枚立ち絵を用意する ・AnimateAnyone-Evolvedで骨に沿って動かす ・AAEでつくった画像をControlnetをかけつつAIブラッシュアップ ・AfterEffectsで背景抜き ・AI背景一枚絵を用意する ・Runwayで動かす(ComfyUIでもできるが質がいいし時短になる) ・キャラの後ろに配置、キャラの画像を複製して影にして足元に配置 ・完成 です。 作業はComfyUIで行います。 ・AIの一枚立ち絵を用意する ・AnimateAnyone-Evolvedで骨に沿って動かす 骨を抜いたのはこちらのフリー動画
絵がド下手でもAIが上手に描いてくれる神サービス『AIキャンバス』スタート! リアルタイム画像生成Akuma.ai リアルタイム画像生成で知られている『Akuma.ai』が、あまりにも未来的かつ革命的なサービスをスタートして注目を集めている。それは『AIキャンバス』で、たとえ絵が下手な人が絵を描いても、AIが上手に描いてくれる(描き直してくれる!?)のである! 良い感じに仕上がった! これまさに革命的なサービス『AIキャンバス』 文字である程度の状況の説明を記入しつつ、画面上のキャンバスに絵を描くと、それを上手に描いてくれるのである。筆者も実際に試してみたが、まだまだ慣れていないものの、なんとなく良い感じに仕上がった! これまさに革命的なサービスである。 【正式リリース】リアルタイムで画像生成ができる「AIキャンバス」。本日より誰でも無料で使えます pic.twitter.com/JyEG
Prompt: Epic anime artwork of a wizard atop a mountain at night casting a cosmic spell into the dark sky that says "Stable Diffusion 3" made out of colorful energy Announcing Stable Diffusion 3 in early preview, our most capable text-to-image model with greatly improved performance in multi-subject prompts, image quality, and spelling abilities. While the model is not yet broadly available, today,
Stable Diffusion Forgeを表示した様子。基本的な操作は既存のStable Diffusion WebUI AUTOMATIC1111とほぼ同じ 画像生成AI「Stable Diffusion」用の新しいユーザーインターフェース「Forge」が2月6日に登場しました。開発したのは、これまで「Controlnet」や「Fooocus」などStable Diffusion関連の様々な重要技術を開発してきたillyasviel(イリヤスベル)さん。何よりインパクトが大きいのは、グラフィックボードのVRAM容量が小さい安価なPCでも最新版のStable Diffusion XL(SDXL)が動かせることです。 RTX 40シリーズが求められたSDXL SDXLは、2023年8月にStablity AIが発表した画像生成AI。高画質な出力ができる一方、コミュニティーサイトで話題にな
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く