並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 15 件 / 15件

新着順 人気順

LCMの検索結果1 - 15 件 / 15件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

LCMに関するエントリは15件あります。 画像AI機械学習 などが関連タグです。 人気エントリには 『【西川和久の不定期コラム】 Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる』などがあります。
  • 【西川和久の不定期コラム】 Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる

      【西川和久の不定期コラム】 Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる
    • 画像生成AI「Stable Diffusion」を爆速化。秒単位で美少女を生成できるLCM系ツールを使い比べた (1/3)

      生成AIの進歩はマジで早い。Stable Diffusion関連だけでも毎日のように新規手法が発表され、せっかく身につけたスキルも数週間後には完全に時代遅れのものになっていることも珍しくはない。 中でも、ここ最近もっとも注目されているのは「LCM」だろう。 LCMとはLatent Consistency Model(潜在一貫性モデル)の略で、大雑把に言えば「画質を多少犠牲にすることで信じられないほど高速化」する仕組みだ。 さらにStable Diffusion開発元の本家Stability.aiからも、LCMとは異なるが「SDXL Turbo」という高速モデルが発表された。果たしてどれほど早くなったのか、それぞれ検証してみることにする。 LCMってどういう仕組? とはいえこれだけでは少し雑すぎるので、もう少し詳しく説明しよう。 Stable DiffusionはLDM(潜在拡散モデル)とい

        画像生成AI「Stable Diffusion」を爆速化。秒単位で美少女を生成できるLCM系ツールを使い比べた (1/3)
      • 【LCM】512×512pxの画像を0.02秒でリアルタイム画風変換する

        はじめに こんにちは。 一昨日、土日を1日潰してLatent Cosistency Model(LCM)の推論高速化に取り組んでみたところ、そこそこ上手くいき、512×512pxの画像をimage-to-image(img2img)するタスクにおいてRTX3090で26fps、A100で33fpsの推論速度が出るようになりました。 【追記】RTX4090だと45fps出たそうなので、記事のタイトルをわずかに更新しました。記事作成当時はA100で検証していたので、以下ご了承ください。 画像1枚につき0.03秒で処理できていることになるので、ほぼリアルタイムで変換できていると言ってもいいのではないでしょうか。 プログレスバーが1%進むごとに1枚の画像のimg2imgが完了しています。気持ちいいですね。 そこで、この記事では、当高速化に取り組んだとき経験的に(理論的にではない)得られた、LCM推

          【LCM】512×512pxの画像を0.02秒でリアルタイム画風変換する
        • 安くなってきた中古ゲーミングノートPCを使いローカル生成AIのStable-Diffusion ForgeをCUDAでチューニングしてみた。FP8+LCM Turbo+HyperTileで3.8秒〜15.4秒/枚とそこそこ高速。CPU対比5倍速。古いGPUでもオススメ

          Kapper@Linuxガジェヲタ&異世界小説家&生成AI&電子工作大好き @kapper1224 という事で中古ゲーミングノートブックPC+CUDA+Stable-Diffusion Forge+FP8+LCM Turbo+HyperTileで1024x512が7.6秒/枚 Model Memory (MB) = 819.7106971740723 Minimal Inference Memory (MB) = 1024.0 贅沢を言わなければ世代遅れマシンでも十分使える。 CPUと比べて5倍速程度だけど pic.twitter.com/IDI9ICJq8Z

            安くなってきた中古ゲーミングノートPCを使いローカル生成AIのStable-Diffusion ForgeをCUDAでチューニングしてみた。FP8+LCM Turbo+HyperTileで3.8秒〜15.4秒/枚とそこそこ高速。CPU対比5倍速。古いGPUでもオススメ
          • LCM LoRA の概要|npaka

            以下の記事が面白かったので、かるくまとめました。 ・SDXL in 4 steps with Latent Consistency LoRAs 1. はじめに「LCM」 (Latent Consistency Model) は、元モデルを別モデルに蒸留することで、画像生成に必要なステップ数を減らす手法です。25~50ステップかかっていた処理を4~8ステップで可能にします。 蒸留したモデルは、より小さくなるように設計される場合 (DistilBERT、Distil-Whisperなど)と、必要なステップ数が少なくなるように設計される場合があります。これは通常、膨大な量のデータ、忍耐力、少数のGPU を必要とし、時間とコストが必要でした。しかし、それも過去の話です。 11月9日 、「LCM」で蒸留したかのように「Stable Diffusion」「SDXL」を本質的に高速化できる新手法「LCM

              LCM LoRA の概要|npaka
            • LCM-LoRA×DiffusersでリアルタイムAIお絵描きを試してみる

              今日の話題はこちら 最近話題のリアルタイムAIお絵描きを実際にやってみようという回です。 使用技術 今回はタイトル通りDiffusersとLCM-Loraを使います。 AIによって画像生成をリアルタイムで行いながら、お絵描き補助をするというツールは実は画像生成AIが出てきた初期の方にあったりするのですが、今回はLCMという技術を使うことで画像生成速度が大幅に向上したことで、ほぼリアルタイムに書いたものがAIによって高品質化されるという点が相違点になります。 LCM及びLCM-LoRAとは 今回肝となるLCMですが、正式名称はlatent-consistency-modelといいます。 LCMが出てきたのは2023/10/6に公表された画像生成の高速化技術で、ものすごく簡潔に説明すると、従来の画像生成AIが複数のステップを踏みながらノイズを徐々に除去して画像生成するところを、一発でノイズ画像

                LCM-LoRA×DiffusersでリアルタイムAIお絵描きを試してみる
              • AUTOMATIC1111版Stable Diffusion web UIでLCM LoRAを利用する手順|まゆひら

                Last update 11-26-2023 ▼ 0. LCM LoRAを利用する簡単な方法 記事の本編よりも先に、LCM LoRAを体験する最も簡単な方法を紹介します。標準の利用方法については1.以降をご覧ください。 0-1. LCM LoRAをマージしたモデル LCM LoRAをマージしたStable Diffusionモデルが登場していて、これらを利用すればすぐに生成ができます。Sampling stepsとGFC Scaleをかなり下げる必要がありますので注意してください(steps=8程度、GFC=1~2)。また、LCM LoRAを指定するプロンプトを記入してはいけません。 なお、LCM Samplerは必須ではなく、Euler a、DPM++ 2S a Karras等を利用するのが良さそうです。LCM Samplerを利用したい場合は3.をご覧ください。 LCMモデルは、Civ

                  AUTOMATIC1111版Stable Diffusion web UIでLCM LoRAを利用する手順|まゆひら
                • ランドクルーザーズ・ミーティング(LCM)蒜山にいってきました - 今日もランクル日和

                  はじめてのランクルイベント 10月12~13日に開催された、第33回 ランドクルーザーズ・ミーティング(LCM)に参加してきました。 私のランクル70は今年購入したばかりなので、初めての参加になります。もう33回も続いている歴史の長い大会で、ずっと参加してみたかったのです。昨年の静岡県裾野市で行われた第32回大会ではランドクルーザーが800台も集まりました。 下記の記事を読むとランクルオーナーならずともテンションが上がるでしょう。 gazoo.com 今年は岡山県の蒜山高原で行われました。たまたま私の住んでいるところから近いので、数ヶ月前から予定を開けて、当日が楽しみで仕方ありませんでした。 悪天候での開催 皆さん御存知の通り、先週末は台風19号が通過しました。被害に合われた方々に、心よりお見舞い申し上げます。蒜山高原も台風の影響を受けて強い風と雨でしたが、予定通り開催されました。 蒜山高

                    ランドクルーザーズ・ミーティング(LCM)蒜山にいってきました - 今日もランクル日和
                  • SDXLでライブ映像をリアルタイム画像生成できる高速化ツール「LCM-LoRA」、GPT-4Vより良い結果も示す画像理解モデル「CogVLM」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                    2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第20回目は、Stable Diffusion微調整モデルなどを高速化するツール「LCM-LoRA」、画像理解を得意とするオープンソース視覚言語モデル「CogVLM」をはじめとする、生成AI最新論文の概要5つをお届けします。 生成AI論文ピックアップStable Diffusion微調整モデルなどを高速化するツール「LCM-LoRA」 Hugging Faceらが開発 画像理解を得意とするオープンソース視覚言語モデル「CogVLM」 テキスト内容と画像内の物体とを細かく関連付けて対話できるモデル「GLaMM」 Googleらが開発 大規模言語モデルを低コストで効率よく

                      SDXLでライブ映像をリアルタイム画像生成できる高速化ツール「LCM-LoRA」、GPT-4Vより良い結果も示す画像理解モデル「CogVLM」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                    • あき先生 | AI Vtuber『しずく』開発中 on X: "LCMで40fps前後で画像生成出来るようになりました!これで完全にリアルタイムアプリケーションいけます。 下のデモ動画は1倍速(リアルタイム)で、OBSの画面録画、VRoidのレンダリング込みで約36fpsで動いてます。(録画無しだと39fps) https://t.co/IDi1ypSFRf"

                      • Real-Time Latent Consistency Model (LCM)から掘り下げる最近の画像生成AIの高速化研究|しらいはかせ(Hacker作家)

                        今週世間を賑わせている画像生成AIの話題で一番インパクトのある話題が 「Real-Time Latent Consistency Model」、通称「RT-LCM」だと思います。 "RT-LCM" Real-Time-Latent-Consistency-Model リアルタイムで潜在空間が一貫して動きます CUDAとPython、またはM1/M2/M3チップを搭載したMacでも動くようです HuggingFaceSpacesでのデモもありますhttps://t.co/T7AmuKNzTC pic.twitter.com/U0l2WX7u6p — AICU Inc. (@AICUai) November 1, 2023 このLCM関係の論文を調査していたらけっこう勉強になったので簡単に紹介しておきたいとおもいます。 この数日で、既にいろんなデモが出ているのですが、いちばん有名と思われるのが

                          Real-Time Latent Consistency Model (LCM)から掘り下げる最近の画像生成AIの高速化研究|しらいはかせ(Hacker作家)
                        • 最近安くなったiPhone SE 第2世代128GBを中古12000円で買って画像生成AIのDraw ThingsでモバイルAI遊び。PCには負けるが512x512でLCMとLoRaで41sec/枚とARMスマホでは高速。現時点でモバイルAIコスパ最強。

                          2020年世代以降で対応しているStable-Diffusion関係のDraw Thingsで遊んでみました。現時点ではNPUでコスパ最強画像生成AIスマホです。たった3GBのメモリでちゃんと1024x1024〜まで動くのは面白いです。なおLLMはちょっとメモリ不足

                            最近安くなったiPhone SE 第2世代128GBを中古12000円で買って画像生成AIのDraw ThingsでモバイルAI遊び。PCには負けるが512x512でLCMとLoRaで41sec/枚とARMスマホでは高速。現時点でモバイルAIコスパ最強。
                          • Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる(PC Watch) - Yahoo!ニュース

                              Stable Diffusion高速化技術続々登場!TensorRT、SSD-1B、LCMなどを試してみる(PC Watch) - Yahoo!ニュース
                            • GitHub - tori29umai0123/LCM_i2i_PoC at test

                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                GitHub - tori29umai0123/LCM_i2i_PoC at test
                              • WebUIではなく素のDiffusersでLora(safetensors)もLCMもやる

                                !pip install -U diffusers transformers scipy ftfy accelerate LoRA modelのロード 今回はsafetensorsをダウンロードします。これはLoraとして指定すると数ステップで画像が生成できるようになります。 !wget -O LCM-LoRA.safetensors "https://civitai.com/api/download/models/225222?type=Model&format=SafeTensor" import torch from diffusers import StableDiffusionPipeline from diffusers import LCMScheduler # Load the model pipeline = StableDiffusionPipeline.from_pr

                                  WebUIではなく素のDiffusersでLora(safetensors)もLCMもやる
                                1

                                新着記事