並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 178件

新着順 人気順

webUiの検索結果1 - 40 件 / 178件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

webUiに関するエントリは178件あります。 AI画像人工知能 などが関連タグです。 人気エントリには 『画像生成AI、安いPCでも高速に 衝撃の「Stable Diffusion WebUI Forge」 (1/4)』などがあります。
  • 画像生成AI、安いPCでも高速に 衝撃の「Stable Diffusion WebUI Forge」 (1/4)

    Stable Diffusion Forgeを表示した様子。基本的な操作は既存のStable Diffusion WebUI AUTOMATIC1111とほぼ同じ 画像生成AI「Stable Diffusion」用の新しいユーザーインターフェース「Forge」が2月6日に登場しました。開発したのは、これまで「Controlnet」や「Fooocus」などStable Diffusion関連の様々な重要技術を開発してきたillyasviel(イリヤスベル)さん。何よりインパクトが大きいのは、グラフィックボードのVRAM容量が小さい安価なPCでも最新版のStable Diffusion XL(SDXL)が動かせることです。 RTX 40シリーズが求められたSDXL SDXLは、2023年8月にStablity AIが発表した画像生成AI。高画質な出力ができる一方、コミュニティーサイトで話題にな

      画像生成AI、安いPCでも高速に 衝撃の「Stable Diffusion WebUI Forge」 (1/4)
    • 高性能で無料、誰の声にでもなりきれるAIボイチェン「RVC WebUI」がついに日本語表示に対応(CloseBox) | テクノエッジ TechnoEdge

      オープンソースのAI声質変換(ボイスチェンジャー)ソフトウェア「RVC WebUI」が、日本語での表示に対応しました。 VITSという声質変換技術をベースにしたRVC(Retrieval-based Voice Changer)に、Webユーザーインタフェースを付加したのが「RVC WebUI」です。

        高性能で無料、誰の声にでもなりきれるAIボイチェン「RVC WebUI」がついに日本語表示に対応(CloseBox) | テクノエッジ TechnoEdge
      • Google、WebUIの自動生成ツール「Stitch」をベータ公開。自然言語で指示するとHTML/CSSを生成

        Googleは日本時間5月21日未明に開幕した年次イベント「Google I/O 2025」で、自然言語で指示を入力すると自動的にWeb UIを生成するツール「Stitch」のベータ公開を発表しました。 StitchはもともとGalileo AI社が提供する同名の「Galileo AI」と呼ばれるサービスでした。これをGoogleが買収し、Geminiをベースにしたサービスにしたものと言えます。 Stitchのデモ画面 下記がStitchの画面です。左側に例(Examples……

          Google、WebUIの自動生成ツール「Stitch」をベータ公開。自然言語で指示するとHTML/CSSを生成
        • 【西川和久の不定期コラム】 「stable diffusion-webui」を無料のクラウド環境「Google Colab」で爆速で動かす!

            【西川和久の不定期コラム】 「stable diffusion-webui」を無料のクラウド環境「Google Colab」で爆速で動かす!
          • 話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) (1/6)

            画像生成AI「Stable Diffusion」共同開発者たちによって設立されたベンチャー企業「Black Forest Labs(BFL)」が、8月1日(現地時間)に発表した話題の画像生成AIモデル「FLUX.1」。 前回の「画像生成AI「Stable Diffusion」の代替に? 話題の「FLUX.1」を試した」では、「ComfyUI」による画像生成を試した。 今回は、この連載ではおなじみ「Fooocus」の作者lllyasviel氏によるStable Diffusion用の高性能なWebインターフェース「Stable Diffusion WebUI Forge」が8月11日頃にFLUX.1に対応したということで、さっそく動作確認してみる。 なお、筆者の環境は以下のとおりだ。 CPU

              話題の画像生成AI「FLUX.1」をStable Diffusion用の「WebUI Forge」で動かす(高速化も試してみました) (1/6)
            • GitHub - webui-dev/webui: Use any web browser or WebView as GUI, with your preferred language in the backend and modern web technologies in the frontend, all in a lightweight portable library.

              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                GitHub - webui-dev/webui: Use any web browser or WebView as GUI, with your preferred language in the backend and modern web technologies in the frontend, all in a lightweight portable library.
              • Stable Diffusion WebUI(1111)をGoogle Colabで使うノートブック【画像も設定も自動保存】 - ただいま村

                いきなり追記(4月22日) Google Colaboratoryの無料プランではSD/WebUIを使えなくなったようです。以下の記事をご覧ください。 Google Colabの無料プランでStable Diffusionを使えなくなったらModalへ行こう? (追記は以上) パソコンにGPUがない人向けに、AUTOMATIC1111版Stable Diffusion WebUI(以下SD/WebUI)をGoogle Colaboratoryで使うノートブックを作りました。下のGithubからどうぞ。 imamurayusuke/SD1111_colab: AUTOMATIC1111/Stable Diffusion WebUIをGoogle Colaboratoryで使うためのipynb この種のノートブックはいろいろあるのですが、自分が考える仕様を満たすものがなかったため自分で作った次

                  Stable Diffusion WebUI(1111)をGoogle Colabで使うノートブック【画像も設定も自動保存】 - ただいま村
                • Open WebUI (Formerly Ollama WebUI) がすごい - Qiita

                  Open WebUIを使ってみました。 https://openwebui.com/ 当初は「Ollama WebUI」という名前だったようですが、今はOpen WebUIという名前に変わっています。Ollama専用じゃなくなったということでしょう。OpenAIに対応済みです。 早速使ってみました。もちろんBedrockで。 6/11 続編を書きました。 環境構築 Dockerですんなり構築です。Bedrockに対応はしてないので、「LiteLLM」を使って対応させます。 環境変数でこのあたりを指定 Ollamaを無効化 LiteLLMのエンドポイントをOpenAIのエンドポイントとして登録 APIキーを登録(LiteLLMとの通信には不要ですが、未指定だとOpen WebUIが正しく動作しませんでした) services: open-webui: image: ghcr.io/open-

                    Open WebUI (Formerly Ollama WebUI) がすごい - Qiita
                  • 【西川和久の不定期コラム】 VRAMが少ないGPUで画像生成AIを諦めていた人に。「Stable Diffusion WebUI Forge」登場!

                      【西川和久の不定期コラム】 VRAMが少ないGPUで画像生成AIを諦めていた人に。「Stable Diffusion WebUI Forge」登場!
                    • Goで作ったロジックにWebUIをつけてGitHubページに公開する | フューチャー技術ブログ

                      ちょっとしたツールをGoで作ってみたのですが、わざわざインストールしなくてもいいようにWebのUIをつけてブラウザで使えるようにしてみました。作ってみたのは以下のツールで、Markdownのリスト形式でざっと下書きしたテーブルの設計をSQLとか、PlantUMLとかMermaid.js形式のERDの図にします。 https://shibukawa.github.io/md2sql/ ウェブフロントエンド部分はNext.jsの静的サイトで、GoはWASMにしてロードして実行しています。WASMを使うのは初めてなのであえて選んでみました。 GoをWASM化するもともとCLIツールは作っておりました。CLIのメインはcmd/md2sql/main.goで作っていました。この中でやっていることは kingpin.v2のオプションパース 指定されたファイルを読み込み(あるいは標準入力) パース 指定

                      • 【2023年版】WebUIのおすすめ拡張機能30選(Stable Diffusion)

                        こんにちは、画像生成AIでひたすら猫のイラストを生成している じょじお(@jojio‗illust)です。 Stable Diffusionの記事です。 この記事ではWebUIの拡張機能のおすすめを紹介する記事になっております。 これは、私自身のメモとして今後も更新し続けていく予定です。

                          【2023年版】WebUIのおすすめ拡張機能30選(Stable Diffusion)
                        • Stable Diffusion WebUIを使ってDepth画像を作成して立体視を楽しむ|Alone1M

                          (この記事は画像生成AI Advent Calendar 2022に投稿するために書きました) この記事では、AUTOMATIC1111さんのStable Diffusion WebUI を使って、生成した画像から、Depth画像を作成して、Looking Glass Portraitや、Meta Quest 2にデータを持っていき、立体視で楽しむための方法を説明します。 (なぜか、Twitterからことごとくセンシティブ判定食らってますが、センシティブな画像は含まれてないと…思います) #LookingGlassPortrait に出してみた。立体感がある感じの画像だととてもきれいにDepthが出る。例によりうまく伝わらないのですが。#anythingv3 #stablediffusion #AIイラスト pic.twitter.com/LN5HJN0y05 — Alone1M (@Al

                            Stable Diffusion WebUIを使ってDepth画像を作成して立体視を楽しむ|Alone1M
                          • Ollama + Open WebUI でローカルLLMを手軽に楽しむ

                            ローカルLLMを手軽に楽しむ ローカルLLMを手軽に動かせる方法を知ったので紹介します。今まではLLMやPC環境(GPUの有無)に合わせてDocker環境を構築して動かしていました。 それが、OllamaとOpen WebUIというソフトを組み合わせることで、ChatGPTのように手軽にローカルでLLMを動かすことができます。参考にしたサイトなどは本記事の末尾で紹介します。特にもりしーさんの動画はきっかけになりました(感謝です)。 動かす方法として以下2つを紹介します。 Ollama単体で動かす方法(初心者向け) Ollama + Open WebUIでGUI付きで動かす方法(Dockerが分かる人向け) 初心者でとりあえずLLMを動かすのにチャレンジしたいという人は、1つ目のOllama単体で動かす方法にトライするのがおすすめです。 Dockerとか普段から使っているという人は、1をとば

                              Ollama + Open WebUI でローカルLLMを手軽に楽しむ
                            • Stable Diffusion WebUI 忘備録|かたらぎ

                              LoRA 簡単に言えば素材となる画像を20~30枚程度用意し、AIに特徴を覚えさせることで人物や、背景、絵柄などを簡単に変更できるファイルのこと。 例えばキャラクターの髪や目や服の色がまちまちだったり、そもそもうまく出せなかったりそんな悩みを解消します。 既存のLoRAを自分の環境で使いたい場合はcivitaiなどからダウンロードしてください。

                                Stable Diffusion WebUI 忘備録|かたらぎ
                              • ChatGPTのWebUIをローカル環境で実現できる「Chatbot UI」を試してみた | DevelopersIO

                                データアナリティクス事業本部のueharaです。 今回は、ChatGPTのWebUIをローカル環境で実現できるChatbot UIを試してみたいと思います。 本家WebUIとの相違点 まず一番大きな違いとして、Chatbot UIはOpenAIのAPI経由でGPTを利用することから、「オプトインしない限りユーザーが送信したデータが学習に利用されることはない」ということが挙げられます。 逆に言うと本家のWebUIを使う場合、入力情報を学習データとして使用させないようにするためにオプトアウトの申請が必要になります。 ChatGPTのAPIリリースに伴う、OpenAIのAPIデータ利用ポリシーの改定は以下でも紹介されているので、気になった方は読んでみて下さい。 また、細かい点は後述しますが、APIならではのパラメータ設定が可能な点や、会話履歴をJSONでエクスポートできる機能など、本家WebUI

                                  ChatGPTのWebUIをローカル環境で実現できる「Chatbot UI」を試してみた | DevelopersIO
                                • Raspberry Pi + Tailscale + Open WebUI で手軽に自分だけの LLM 環境を構築するチュートリアル

                                  作るもの Raspberry Pi に Open WebUI をホストし、ローカル LLM や LLM API を利用できるようにします。さらに Tailscale (VPN) を利用することで、自宅外からでも Open WebUI にアクセスできるようにします。 自宅外からでもスマホや PC でアクセスできます。 Tailscale (VPN) を使っているので他の人からは見ることができない、自分専用のアプリになっています。 環境 Windows 11 24H2 Raspberry Pi をセットアップする Raspberry Pi をセットアップして SSH 接続できるようにします。Raspberry Pi 4 を使用しますが、他のバージョンでも同様の手順でセットアップできるはずです。 必要なもの PC この記事では Windows PC を前提に説明します。 Raspberry Pi

                                    Raspberry Pi + Tailscale + Open WebUI で手軽に自分だけの LLM 環境を構築するチュートリアル
                                  • グラボを買い替えずとも画像生成AIの実行速度を高速化できる「Stable Diffusion WebUI Forge」を実際にインストールして生成速度を比較してみた

                                    画像生成AI「Stable Diffusion」には、有志が作成したユーザーインターフェースが複数用意されています。「Stable Diffusion WebUI Forge」はControlNetの開発者であるLvmin Zhang氏が開発したユーザーインターフェースで、広く使われている「Stable Diffusion web UI(AUTOMATIC1111版)」と比べて画像を高速に生成できるとのこと。そこで、Stable Diffusion WebUI Forgeを実際にインストールする手順やStable Diffusion web UI(AUTOMATIC1111版)との生成速度の差を確かめてみました。 GitHub - lllyasviel/stable-diffusion-webui-forge https://github.com/lllyasviel/stable-dif

                                      グラボを買い替えずとも画像生成AIの実行速度を高速化できる「Stable Diffusion WebUI Forge」を実際にインストールして生成速度を比較してみた
                                    • stablediffusion WebUI モデル一覧

                                      このブラウザ バージョンのサポートは終了しました。サポートされているブラウザにアップグレードしてください。

                                        stablediffusion WebUI モデル一覧
                                      • GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI

                                        Detailed feature showcase with images: Original txt2img and img2img modes One click install and run script (but you still must install python and git) Outpainting Inpainting Color Sketch Prompt Matrix Stable Diffusion Upscale Attention, specify parts of text that the model should pay more attention to a man in a ((tuxedo)) - will pay more attention to tuxedo a man in a (tuxedo:1.21) - alternative

                                          GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI
                                        • 【西川和久の不定期コラム】 ComfyUIのWebUIを作りました!普段使うWorkflowが固定ならこの方が見やすいかも!?

                                            【西川和久の不定期コラム】 ComfyUIのWebUIを作りました!普段使うWorkflowが固定ならこの方が見やすいかも!?
                                          • RVCのWebUIを1から作り直した話|だだっこぱんだ|pixivFANBOX

                                            こんにちは、だだっこぱんだです。マイクラのサーバーやってたりエンジニア(わら)だったりします。 経緯 liujing04/Retrieval-based-Voice-Conversion-WebUIのコードがあまりにも汚すぎる。 これがすべての理由です。ほんとに汚いです。読めません。 自分でいろいろ実装したかったのですが、このコードじゃ無理。。。 ...

                                              RVCのWebUIを1から作り直した話|だだっこぱんだ|pixivFANBOX
                                            • Python: Streamlit を使って手早く WebUI 付きのプロトタイプを作る - CUBE SUGAR CONTAINER

                                              Streamlit は、ざっくり言うと主にデータサイエンス領域において WebUI 付きのアプリケーションを手早く作るためのソフトウェア。 使い所としては、ひとまず動くものを見せたかったり、少人数で試しに使うレベルのプロトタイプを作るフェーズに適していると思う。 たとえば、Jupyter で提供すると複数人で使うのに難があるし、かといって Flask や Django を使って真面目に作るほどではない、くらいのとき。 使った環境は次のとおり。 $ sw_vers ProductName: macOS ProductVersion: 11.3.1 BuildVersion: 20E241 $ python -V Python 3.8.9 もくじ もくじ 下準備 基本的な使い方 基本的な書式 プレースホルダー プログレスバーを使った処理の進捗の可視化 基本的な可視化 組み込みのグラフ描画機能

                                                Python: Streamlit を使って手早く WebUI 付きのプロトタイプを作る - CUBE SUGAR CONTAINER
                                              • WebUIについて調べた - laiso

                                                WebUIはデスクトップアプリを作るためのライブラリ。HTML, CSS, JavaScriptでフロントエンドを作り、バックエンドをC, C++, Python, Go, TypeScriptなどの言語で開発できる。システムにインストールされているWebブラウザで動作する https://webui.me/webui.me 2023年にhassandragaさんが公開し、V言語コミッタのttytmさんらも参加した 本体はCで開発されていて、Python, Go, TypeScriptにバイディングが提供されている 似た技術としてはElectronやTauri、Gluonなどが存在する laiso.hatenablog.com zenn.dev アーキテクチャについて ElectronやTauriと比較すると、WebUIのアーキテクチャはWebアプリをブラウザで開くだけなのでより単純かつ制

                                                  WebUIについて調べた - laiso
                                                • SD用快速webUI「Forge」公開!A1111版とどこが違う?導入と実践|スタジオ真榊【AIイラスト術解説】|pixivFANBOX

                                                  こんにちは、スタジオ真榊です。支援者の皆様には連日、プロンプト超辞典の枝記事が生成されるたびに更新通知が行ってしまっているのではないかと思います。ご迷惑をおかけしておりますが、あと3分の1ほどで終わりますのでどうかご容赦ください。 さて、今日はControlnetの開発者lllyasviel(イリヤスフィール)氏が公開...

                                                    SD用快速webUI「Forge」公開!A1111版とどこが違う?導入と実践|スタジオ真榊【AIイラスト術解説】|pixivFANBOX
                                                  • [WebUI] Stable DiffusionベースモデルのCLIPの重みを良いやつに変更する

                                                    簡単な記事なので前置きは省略します。 CLIPについて Stable Diffusionベースのモデルは、画像生成に際してテキストで条件づけを行う(a.k.a. txt2img)場合、CLIPという基盤モデルでテキストをベクトルに変換し、生成処理に渡しています。 つまり、入力したテキストをいかに的確に生成処理のモデルに伝えられるのかはCLIP(のようなテキストエンコーダー)の性能にかかっているわけですが、実はStable Diffusionに組み込まれているCLIPは、CLIPの中でも最強性能のものではありません。 適当に、画像のグラフに登場する点はそれぞれCLIPのバリアントで、上にあるモデルほど性能がいいと考えてください。 ここで、Stable Diffusion V1系に組み込まれているCLIPはL/14ですが、CLIPの中で最も性能の良いL/14@336pxに一歩遅れをとっているこ

                                                      [WebUI] Stable DiffusionベースモデルのCLIPの重みを良いやつに変更する
                                                    • ローカルで生成AIを実行できる環境を「Open WebUI」「Ollama」「Kubernetes」で構築してみよう

                                                      ローカルで生成AIを実行できる環境を「Open WebUI」「Ollama」「Kubernetes」で構築してみよう:クラウドサービスだけじゃない! ローカルPCやサーバ、Kubernetesで生成AI(2) 気軽に試せるラップトップ環境で、チャットbotを提供するオールインワンの生成AI環境構築から始め、Kubernetesを活用した本格的なGPUクラスタの構築やモデルのファインチューニングまで解説する本連載。今回は、「Open WebUI」「Ollama」「Kubernetes」を活用して生成AIと対話できる環境をローカルで構築する方法を解説します。

                                                        ローカルで生成AIを実行できる環境を「Open WebUI」「Ollama」「Kubernetes」で構築してみよう
                                                      • AWS Transfer Family web apps を使ってノーコードでS3のWebUIを作成する - Taste of Tech Topics

                                                        はじめに こんにちは、一史です。 暖かくなりベランダに出している金木犀が新芽を出してきました、春ですね。 さて、ストレージサービス間でファイル転送を実現するサービス、AWS Transfer Familyの新機能として、web appsというものがあります。 aws.amazon.com この機能を使うことで、S3のWebUIをノーコードで作成することができるようになりました。 今回はこの新機能を用いて実際にWebUIを作成し、ユーザー単位のアクセス制御が行えるかを試していきます。 はじめに AWS Transfer Family web apps とは AWS Transfer Family web appsを用いてS3 WebUI作成する WebUIの完成像 WebUIの作成 ユーザーの作成・割り当て ユーザーのファイルへのアクセス権限の設定 作成したS3 WebUIの操作 ユーザーご

                                                          AWS Transfer Family web apps を使ってノーコードでS3のWebUIを作成する - Taste of Tech Topics
                                                        • GitHub - RamboRogers/netventory: Netventory is a fast single binary network scanning tool with a beautiful TUI and WebUI that runs on Linux, Mac or Windows.

                                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                            GitHub - RamboRogers/netventory: Netventory is a fast single binary network scanning tool with a beautiful TUI and WebUI that runs on Linux, Mac or Windows.
                                                          • stable-diffusion-webui を素早く使いこなすためのtips - Qiita

                                                            Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この記事で書くこと stable-diffusion-webuiを100時間くらい触った上で、手っ取り早くクオリティを上げるために知っといたほうがいいこと テクニック、記事リンク、関連サービスを書きます 筆者はWebエンジニアだけどAI素人です 言葉もあやふやなので修正歓迎です この記事で書かないこと 導入方法 エンジニアはもちろんgitで導入したほうが更新が楽でよいです ❗️最新情報2024/12追記❗️ 現在主流なのは以下のReForgeとv-pred対応モデルを使っての画像生成となります 凄まじい性能アップがされてる上に、GPUは

                                                              stable-diffusion-webui を素早く使いこなすためのtips - Qiita
                                                            • GitHub - AbdBarho/stable-diffusion-webui-docker: Easy Docker setup for Stable Diffusion with user-friendly UI

                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                GitHub - AbdBarho/stable-diffusion-webui-docker: Easy Docker setup for Stable Diffusion with user-friendly UI
                                                              • ChatGPT APIを使うためのWebUI(BetterChatGPT)を社内公開した話 - LIVESENSE ENGINEER BLOG

                                                                これは LIVESENSE madeブログ 4月のお題 の参加記事です。 データプラットフォームグループの富士谷です。 ChatGPTのAPIの提供とポリシーの改変から、はや1ヶ月半くらい経ちました。弊社でも、ChatGPT(OpenAI API)を使った機能を開発し、転職会議や面接支援ツールのbatonnで、すでにリリースしています。 転職口コミサイト『転職会議』、ChatGPTのAIを活用した企業口コミの要約情報を提供開始 | 株式会社リブセンス 【業界初】面接最適化クラウド『batonn』、「ChatGPT」のAIを活用した面接内容の要約機能をリリース | 株式会社リブセンス 転職会議については、開発の裏側もブログで公開しています。 made.livesense.co.jp APIを使った機能開発や業務効率化は今後も模索していきたいと考えています。 重要なのは、各々がどのように使える

                                                                  ChatGPT APIを使うためのWebUI(BetterChatGPT)を社内公開した話 - LIVESENSE ENGINEER BLOG
                                                                • GitHub - lllyasviel/stable-diffusion-webui-forge

                                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                    GitHub - lllyasviel/stable-diffusion-webui-forge
                                                                  • WebUIのAnimateDiffに複数画像のControlNetを適用する|TDS_

                                                                    タイトル通りの内容です 整備はしたいのですがまだまだ自分向けという感じのコードです WebUI1.6で動作を確認しています 今回は、hook.pyとcontrolnet.pyを修正しています。 また、リポジトリのTOPにあるCN_AD.jsonをトップディレクトリ(webui-user.batのあるところ) に置きます。 { "_is_CN_AD_on": 1, "input_images_pass": "imput_images", "input_images_number": 16 }_is_CN_AD_on:このモードを使用するかどうか input_images_pass:連番画像を入れるパスの名前 input_images_number:画像の枚数(フレーム数と同じ枚数にしか対応していません) 設定例設定は普通にUI上で行います。まずは同じ設定で動くか試してください。 主な注意点は

                                                                      WebUIのAnimateDiffに複数画像のControlNetを適用する|TDS_
                                                                    • GitHub - ddPn08/Radiata: Stable diffusion webui based on diffusers.

                                                                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                        GitHub - ddPn08/Radiata: Stable diffusion webui based on diffusers.
                                                                      • 【Stable Diffusion】超簡単にLoRAを自作できる拡張機能「sd-webui-train-tools」の使い方!

                                                                        こんにちは!悠です! AIイラストを作成する際、超マイナーな版権キャラやニッチな需要向けの構図を反映させたい時ってありますよね。 今回は、自分の好きなように学習させたLoRAをWebUI上で生成できる拡張機能「sd-webui-train-tools」の使い方を紹介していきます。 画像サイズの調整やタグ付けをする必要もなく、10枚程度の画像をドラッグアンドドロップするだけで簡単にLoRAを作ることができますよ!

                                                                          【Stable Diffusion】超簡単にLoRAを自作できる拡張機能「sd-webui-train-tools」の使い方!
                                                                        • ControlNet導入&使い方解説 3D人形・実写画像等から姿勢を入力し画像生成 webUI(1111)用

                                                                          Stable Diffusion web UI(AUTOMATIC1111)の拡張機能(Extension)「ControlNet」をインストールし、姿勢を棒人間や実写・二次元画像、3D デッサン人形などから指定して画像を生成する方法を解説します。 また、各種設定項目の解説と実際にやってみた所感を記しました。 うまくいくとこのくらいの精度で姿勢を制御できます。 以下の出力2枚、プロンプトは完全に同一です。 もはや言葉でhands upとか書かなくて良い時代!!!

                                                                          • 「Microsoft Edge」のUIが劇的に高速化 ~内部プロジェクト「WebUI 2.0」の秘密/とくにSSDなし、メモリ8GB未満などのローエンドデバイスでは効果覿面

                                                                              「Microsoft Edge」のUIが劇的に高速化 ~内部プロジェクト「WebUI 2.0」の秘密/とくにSSDなし、メモリ8GB未満などのローエンドデバイスでは効果覿面
                                                                            • 画像生成AIを使い倒す!「Stability Matrix」で使えるWebUIを紹介【生成AIストリーム】

                                                                                画像生成AIを使い倒す!「Stability Matrix」で使えるWebUIを紹介【生成AIストリーム】
                                                                              • 【ローカルAI】GUIでCodeLlama-34B-Instruct-GGUFを動かしてみる【text-generation-webui】

                                                                                【ローカルAI】GUIでCodeLlama-34B-Instruct-GGUFを動かしてみる【text-generation-webui】 概要 ローカルLLMで最近話題の「CodeLlama-34B-Instruct-GGUF」をtext-generation-webuiから動かし、「ローカルLLMでもファインチューニングなしでプロンプト指示できる」感覚を体験してみる。 メイン読者ターゲット ご家庭にGPUがある人(CPUでも良いが遅い) 最適化だったり正しい理解ができてるかは別として、とりあえず動かしたい人 導入から書くので、推論スピードだけ確認したい人は下まですっ飛ばしてください。 導入 text-generation-webuiの導入 以下からclone 自分はpyenv+venv派なので python -m venv .venv でactivate。 あとは基本的にinstall

                                                                                  【ローカルAI】GUIでCodeLlama-34B-Instruct-GGUFを動かしてみる【text-generation-webui】
                                                                                • GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)

                                                                                  🚀 Effortless Setup: Install seamlessly using Docker or Kubernetes (kubectl, kustomize or helm) for a hassle-free experience with support for both :ollama and :cuda tagged images. 🤝 Ollama/OpenAI API Integration: Effortlessly integrate OpenAI-compatible APIs for versatile conversations alongside Ollama models. Customize the OpenAI API URL to link with LMStudio, GroqCloud, Mistral, OpenRouter, and

                                                                                    GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)

                                                                                  新着記事