並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 25 件 / 25件

新着順 人気順

text-generation-webuiの検索結果1 - 25 件 / 25件

  • 【ローカルAI】GUIでCodeLlama-34B-Instruct-GGUFを動かしてみる【text-generation-webui】

    【ローカルAI】GUIでCodeLlama-34B-Instruct-GGUFを動かしてみる【text-generation-webui】 概要 ローカルLLMで最近話題の「CodeLlama-34B-Instruct-GGUF」をtext-generation-webuiから動かし、「ローカルLLMでもファインチューニングなしでプロンプト指示できる」感覚を体験してみる。 メイン読者ターゲット ご家庭にGPUがある人(CPUでも良いが遅い) 最適化だったり正しい理解ができてるかは別として、とりあえず動かしたい人 導入から書くので、推論スピードだけ確認したい人は下まですっ飛ばしてください。 導入 text-generation-webuiの導入 以下からclone 自分はpyenv+venv派なので python -m venv .venv でactivate。 あとは基本的にinstall

      【ローカルAI】GUIでCodeLlama-34B-Instruct-GGUFを動かしてみる【text-generation-webui】
    • text-generation-webui で Rinna・OpenCALM・RWKV を試す|npaka

      「text-generation-webui」で「Rinna」「OpenCALM」「RWKV」を試したので、まとめました。 ・Windows 11 1. text-generation-webui「text-generation-webui」は、大規模言語モデルを実行するためのWeb UIです。テキスト生成の「AUTOMATIC1111」になることを目標としています。 特徴は、次のとおりです。 ・3つのインターフェイスモード (default, notebook, chat) ・モデルバックエンド (transformers, llama.cpp, AutoGPTQ, GPTQ-for-LLaMa, ExLlama, RWKV, FlexGen) ・ドロップダウンメニューによるモデル切り替え ・LoRA (ロード・アンロード・学習) ・プロンプトテンプレート (Alpaca, Vicuna

        text-generation-webui で Rinna・OpenCALM・RWKV を試す|npaka
      • GitHub - oobabooga/text-generation-webui: A Gradio web UI for Large Language Models.

        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

          GitHub - oobabooga/text-generation-webui: A Gradio web UI for Large Language Models.
        • text-generation-webui で RinnaのLoRAファインチューニングを試す|npaka

          「text-generation-webui」で「Rinna」のLoRAファインチューニングを試したので、まとめました。 前回 LoRAファインチューニングを試すLoRAファインチューニングの手順は、次のとおりです。 (1) 前々回と同じ手順で、Rinnaと会話できるように設定。 今回は、Rinnaのベースモデル (rinna/japanese-gpt-neox-3.6b) を使いました。 (2) 「Modelタブ」で「load-in-8bit」をチェックして、Rinnaモデルを再読み込み。 (3) 「あかねと〜くデータセット」(dataset_plain.txt) をダウンロードして「training/datasets」フォルダに配置。 今回は、EOSのないプレーンの方を使いました。 (4) 「Training タブ」で「Name」にLoRAモデル名を指定し、「Override Exis

            text-generation-webui で RinnaのLoRAファインチューニングを試す|npaka
          • Llama 2 を text-generation-webui で動かす

            tl;dr 2023/7/19 に公開された Llama 2 を試してみたよ text-generation-webui の上で Llama 2 をローカル環境(M2 Mac)で動かしたよ 遅過ぎて GPU がほしいとなったよ →Google Colab 版をお勧めするよ 結果的に実用的ではなかったけれど、途中過程は参考になるかもだよ Llama 2 とは Meta の大規模言語モデル。無料で利用可能で、商用利用も可。パラメータ数は 7B、13B、70B。公開データセットから学習されており、個人データは含まれていません。 Llama 2-Chat は Llama 2 をベースに RLHF を施したモデル。既存のオープンソースのモデルを上回る性能を示し、一部の指標ではクローズドなモデルと匹敵する性能。 text-generation-webui とは ブラウザで使える文章生成 AI 用の U

              Llama 2 を text-generation-webui で動かす
            • Google Colab で Text Generation WebUI を試す|npaka

              「Google Colab」で「Text Generation WebUI」を試したので、まとめました。 1. Text Generation WebUI「Text Generation WebUI」は、LLM用のGradio WebUIです。テキスト生成における「Stable Diffusion WebUI」になることを目標に開発されました。 主な特徴は、次のとおりです。 ・3つのインターフェイスモード ・default ・notebook ・chat ・モデルの切り替え ・モデルバックエンドの切り替え ・Transformers ・llama.cpp (llama-cpp-python経由) ・ExLlama ・ExLlamaV2 ・AutoGPTQ ・AutoAWQ ・GPTQ-for-LLaMa ・CTransformers ・QuIP# ・チャットテンプレートの切り替え ・Lla

                Google Colab で Text Generation WebUI を試す|npaka
              • text-generation-webui の LoRAファインチューニングのパラメータ調整ガイド|npaka

                以下の記事で紹介されている、LoRAファインチューニングのパラメータ調整ガイドがわかりやすかったので、簡単にまとめました。 ・Training Your Own LoRAs 前回 1. VRAMはじめに、「VRAM」を考える必要があります。 ・一般に、デフォルトパラメータを使用した学習でのVRAM使用量は、デフォルト設定で (1000以上のコンテキストトークンを含む) テキストを生成する時とほぼ同じになります。つまり、テキストを生成できれば、LoRAを学習できます。 ・VRAMに余裕がある場合は、より高い「batch size」を設定すると、より多くのVRAMが使用され、その代わりに学習の質が向上します。 ・データが大きい場合は、「cutoff length」を高く設定すると効果的ですが、VRAMが大幅に消費されます。余裕がある場合は、「batch size」を「1」に設定し、「cutof

                  text-generation-webui の LoRAファインチューニングのパラメータ調整ガイド|npaka
                • GitHub - jllllll/bitsandbytes-windows-webui: Windows compile of bitsandbytes for use in text-generation-webui.

                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                    GitHub - jllllll/bitsandbytes-windows-webui: Windows compile of bitsandbytes for use in text-generation-webui.
                  • text-generation-webui で RWKV を試す|npaka

                    「text-generation-webui」で「RWKV」を試してみたので、まとめました。 ・Windows 11 【最新版の情報は以下で紹介】 1. text-generation-webui「text-generation-webui」は、大規模言語モデルのWeb UIです。LLaMA、llama.cpp、GPT-J、Pythia、OPT、GALACTICAなどの大規模言語モデルをローカルで実行できます。 2. インストール「text-generation-webui」のインストール手順は、次のとおりです。 (1) 「oobabooga-windows.zip」をダウンロードして解凍し、C:¥直下に配置。 「ファイル名が長すぎます。」エラーがでたためC:¥直下に置いてます。 (2) 「start_windows.bat」の実行。 インストール種別を聞かれたら、A (NVIDIA)を指

                      text-generation-webui で RWKV を試す|npaka
                    • text-generation-webuiをDockerで動かす

                      text-generation-webui いつものnpakaさんの後追い記事です。npakaさんが素のWindowsでセットアップしているのに対して、Linux + Dockerでセットアップします。 セットアップ方法 Linux(Ubuntu22.04)前提です。Windows(WSL2)でも動く気がします。Macは分からないです(だめかも)。 Dockerセットアップ Dockerのインストールは、以下記事参照ください(雑に省略) セットアップ git lfsをセットアップします。

                        text-generation-webuiをDockerで動かす
                      • Paperspace Gradientでtext-generation-webuiを起動させてRWKVを動かす|mah_lab / 西見 公宏

                        私自身はGrowthプランを契約しています。月額39ドルでA100 80GBが使い放題という破格の価格設定に惹かれてのことだったのですが、ハイスペックGPUは用意されているリソース自体が少なく取り合い状態になっているため、実際に利用できているのはA6000 48GBあたりです。 とはいえ実物を買うよりはだいぶ安く収まっていますし、検証用途であれば今のところ十分なスペックなのでPaperspace Gradientを愛用しております。 NotebookのセットアップそんなPaperspace Gradientで様々な言語モデルを試すためにtext-generation-webuiを起動させてみたので、そのセットアップについてメモしておきたいと思います。 text-generation-webuiはAUTOMATIC1111/stable-diffusion-webuiの言語モデル版のようなツ

                          Paperspace Gradientでtext-generation-webuiを起動させてRWKVを動かす|mah_lab / 西見 公宏
                        • macOSでtext-generation-webuiを使って生成モデルを動作させてみた - Qiita

                          はじめに Apple Silicon を搭載した Mac を使って LLM 生成モデルを動作させる手順を紹介します。正確にいうとローカル環境で大規模言語モデルをAPIサーバを動作させる text-generation-webui編をmacOSで実行してみました、という内容です。 前提条件 Apple Silicon を搭載した Mac であること 16GB 程度のシステムメモリを有していること (8GB だと動かせるモデルがかなり少なくなります) セットアップ作業時にインターネットへアクセス可能なこと (*1) *1 GitHub や Hugging Face へのアクセスが必要となります。 手順 これらの手順は、macOS にて実行するための手順となります。OS によって実行するスクリプトが違います。 github/oobabooga/text-generation-webui のリポジ

                            macOSでtext-generation-webuiを使って生成モデルを動作させてみた - Qiita
                          • ローカル環境で大規模言語モデルをAPIサーバを動作させる text-generation-webui編 - Qiita

                            はじめに 自分専用の大規模言語モデルを動作させるAPIサーバを用意する手順をざっと紹介します。といっても、手順は以前公開したGoogle Colabでtext generation webuiを起動し、Llama 2と会話してみたをローカルマシンで実行する内容であり、目新しいものではありません。 前提条件 NVIDIA GPU を搭載した マシン (7B程度のモデルを動作させるには VRAM 8GB 程度のマシンが必要です。) ゲーミング PC の Windows 上に WSL / ubuntu がセットアップされていること Windows 環境にて適切なドライバーが適用されていること (*1) Windows 管理者権限を持つアカウントを利用可能なこと セットアップ作業時にインターネットへアクセス可能なこと (*2) NVIDIA Container Toolkit がインストールされて

                              ローカル環境で大規模言語モデルをAPIサーバを動作させる text-generation-webui編 - Qiita
                            • 【ローカルLLM】text-generation-webUIのAPI機能を試す|Baku

                              ローカルLLMをAPI的に使う場合は、llama.cpp(GGUF/GGML)が手軽そう。ただ、大きなモデルではExllama(GPTQ)も使えると便利。 LLM用のウェブUIであるtext-generation-webUIにAPI機能が付属しているので、これを使ってExllama+GPTQのAPIを試してみた。 公式によると、WebUIの起動時に「--api」(公開URLの場合は「--public-api」)のFlagをつければAPIが有効になる。 まずローカル環境で「--api」を試したところ問題なく利用できた。 ローカルで動かせないモデルも扱えるように、クラウド経由でAPIを使えるようにしておきたい。なので次に「--public-api」も試してみる。 「--public-api」の場合、そのままではエラーで起動に失敗。依存関係「flask_cloudflared」を追加でインストー

                                【ローカルLLM】text-generation-webUIのAPI機能を試す|Baku
                              • Ubuntu 22.04LTS serverにtext-generation-webuiをcondaでインストールする - Qiita

                                準備 text-generation-webuiの公式サイトの手順には記載ありませんが、事前にtextgenユーザーの作成を行います。 本ユーザーを作成せずに公式サイトの手順を実施しても問題はありませんが、ホームディレクトリ配下にPythonの各種ライブラリがインストールされるので、環境を汚さないためにtextgenユーザーを作成し、そこにtext-generation-webuiのインストールを行います。 $ sudo adduser textgen [sudo] password for XXXXX: Adding user `textgen' ... Adding new group `textgen' (1001) ... Adding new user `textgen' (1001) with group `textgen' ... Creating home director

                                  Ubuntu 22.04LTS serverにtext-generation-webuiをcondaでインストールする - Qiita
                                • text-generation-webui ChatGPI互換APIでcalm2-7b-chatを起動する - 動かざることバグの如し

                                  環境 cyberagent/calm2-7b-chat Docker やりたいこと サイバーエージェントが先日リリースしたLLMモデル、cyberagent/calm2-7b-chat をChatGPT互換APIとして動かしたい 独自の日本語LLM(大規模言語モデル)のバージョン2を一般公開 ―32,000トークン対応の商用利用可能なチャットモデルを提供― | 株式会社サイバーエージェント 見ると32kトークン対応ですごいらしい ただ実行するだけなら書き捨てのPythonサンプルコードでいいが、色々試したり組み込んだりすることを考えるとChatGPTの互換APIとして動かしたい FastChatだったりBerriAI/litellm、Llama-cpp-pythonだったり色々あるようだが今回は楽さをとってoobabooga/text-generation-webuiを利用した 手順 Do

                                    text-generation-webui ChatGPI互換APIでcalm2-7b-chatを起動する - 動かざることバグの如し
                                  • text-generation-webuiでELYZA-japanese-Llama-2-7b-fast-instructとのチャットを考える|saip(さいぴ)

                                    text-generation-webuiでELYZA-japanese-Llama-2-7b-fast-instructとのチャットを考える text-generation-webuiにはデフォルトでChiharu Yamadaという謎の美少女とチャットできるプリセットが搭載されています ContextをDeepLで日本語に翻訳して会話してみるModeをChatにすると、LLMにはどのようなプロンプトが渡っているのでしょうか。 左下のハンバーガーメニューから「send to default」または「send to notebook」を選ぶと、実際にLLMに渡っているプロンプトを確認することができます。 今回の例では、画像のようにかなりシンプルなプロンプトが渡されていることが確認できました。 一方、公式のHFリポジトリでは、以下のようなLlama 2の書式でプロンプトを渡すことが推奨されて

                                      text-generation-webuiでELYZA-japanese-Llama-2-7b-fast-instructとのチャットを考える|saip(さいぴ)
                                    • ChatGPTクローンを試す(text-generation-webui編)

                                      text-generation-webui Python製 主にオープンな言語モデル向け stable-diffusion-web-uiと同じ立ち位置を目指しているらしい 普通にChatGPTっぽくつかうというよりは、オープンソースの言語モデルを色々試したり、細かいパラメータ設定したり、トレーニングさせたり、少し専門家向けに柔らかいUI用意した、みたいな感じに近いと思う。 なので、今回の目的とはちょっと立ち位置が違うとは思いつつも、今まで触ってこなかったのもあって、すこし触ってみる。 インストール Windows/Linux/macOS/WSL向けにワンクリックでローカルで実行できるインストーラが用意されているのだけど、中を見てるとcondaとか使ってるみたい。個人的にはcondaをグローバルにインストールすることに躊躇するところがあって、他の方法はないかなーとおもってたらDockerでで

                                        ChatGPTクローンを試す(text-generation-webui編)
                                      • 【ローカルLLM】ネガティブ・プロンプトがtext-generation-webUIに実装される|Baku

                                        「Classifier-Free Guidance (CFG)」が、Transformers&Exllamaに実装され、text-generation-webUIでもサポートされたとのこと。これに伴い、画像生成AIでよく使われる「ネガティブプロンプト」も使用可能になった。 WebUI開発者のoobabooga氏が下記の投稿で報告している。 CFG&ネガティブプロンプトの使用例oobabooga氏の示すネガティブプロンプトの使用例は以下の通り。 ■プロンプト You are a rude and obnoxious assistant. You hate everything and everyone. USER: Tell me a story. ASSISTANT: (和訳 あなたは無礼で不愉快なアシスタントです。あなたは何もかも、そして誰もを憎んでいます。ユーザー:物語を書いて。アシス

                                          【ローカルLLM】ネガティブ・プロンプトがtext-generation-webUIに実装される|Baku
                                        • 【Anaconda無し!】text-generation-webuiをWindowsで動かす手順&各種設定解説

                                          2. 適当なモデルをダウンロードして起動 まず、仮想環境(venv)に入ります。 text-generation-webuiフォルダ内でターミナルを開き、以下のコマンドをコピペして実行します。 venv\Scripts\activate.ps1 モデルをダウンロードする HuggingFaceの組織名/モデル名を指定してダウンロードできます。 python download-model.py organization/model ここでは公式例通り、OPTの1.3Bモデルをダウンロードします。 python download-model.py facebook/opt-1.3b text-generation-webui>python download-model.py facebook/opt-1.3b Downloading the model to models\opt-1.3b D

                                          • text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructのLoRAトレーニングを試す。|saip(さいぴ)

                                            text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructのLoRAトレーニングを試す。 text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructのLoRAトレーニングを試してみたので、その備忘録を記します。 Google Colabでtext-generation-webuiを起動ローカルマシンではVRAMが足りなかったので、Google ColabでA100を利用します。 以下のコードを実行すると、Google Colabでtext-generation-webuiを起動することができます。 %cd /content !apt-get -y install -qq aria2 !git clone -b v2.5 https://github.com/c

                                              text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructのLoRAトレーニングを試す。|saip(さいぴ)
                                            • 【ローカルLLM】ExLlamaでtext-generation-webuiによるテキスト生成を高速化する|Baku

                                              数日前、RedditのローカルLLMスレに以下の投稿が上がっていた。Llamaベースの大規模言語モデルの推論が早くなる「ExLlama」というローダーが、text-generation-webuiでサポートされたとのこと。 *text-generation-webuiは、ローカルで大規模言語モデルを実行するためのWebUIのひとつ。 ExLlamaとはRedditのレスによれば、ローカルLLMは大半の個人ユーザーにとってデカすぎるゆえ、最近は量子化により軽量化したモデルを使うのが一般的になっている。 有名なのは「llama.cpp」の量子化モデル(GGML)で、これはもともとMacbookやスマートフォンでのLLM実行を目指すプロジェクトであって、CPUでも動かすことを念頭において開発されている。 generation-webuiでも「llama.cpp」は使えるが、これとは別に「GPTQ

                                                【ローカルLLM】ExLlamaでtext-generation-webuiによるテキスト生成を高速化する|Baku
                                              • Text-generation-webUIとSillyTavernで複数キャラとチャットする環境の導入方法について|のーく

                                                今更ながらLLMで遊ぶようになりました。なにこれ超楽しい。 一方で簡潔に導入方法をまとめている記事がないため自分用と称した上で残しておきます。 必要なものPython(分からなかったらとりあえず最新バージョンを入れておく。ダメならダウングレードする。venvでLLM用専用の環境を作っておくとリカバリしやすい。) git(あると便利。なくても良い。) やる気 手順概要 導入に必要な手順は以下の通り。 ポート番号はデフォルト、変更したい場合は各ソフトのマニュアルを確認すること。 躓きやすいのは「8. SillyTavernとText-generation-webUIの接続」、分かりにくいのは「9. キャラクターのグループ設定」だと思います。 適当なフォルダにText-generation-webUIをインストールする。 Text-generation-webUIの動作を確認する(http://

                                                  Text-generation-webUIとSillyTavernで複数キャラとチャットする環境の導入方法について|のーく
                                                • text-generation-webuiで学習モデルダウンロード時にhuggingfaceにログインする - Qiita

                                                  結論 環境変数HF_TOKENにhuggingfaceのトークンをセットしてから、text-generation-webuiを起動してください。 トークンのURL: https://huggingface.co/settings/tokens 環境 項目 情報 text-generation-webuiは、下記手順でインストール。 text-generation-webui 学習モデルダウンロード機能 text-generation-webuiには、huggingfaceから学習モデルをダウンロードする便利な機能が用意されています。 この機能ですが、設定なしだと huggingfaceにログインせず に学習モデルのダウンロードを行います。 ※ 他にインストールディレクトリ配下に「download-model.py」というスクリプトがあり、こちらでも学習モデルのダウンロードが行えます。使い方

                                                    text-generation-webuiで学習モデルダウンロード時にhuggingfaceにログインする - Qiita
                                                  • text-generation-webui の 設定項目まとめ|npaka

                                                    1. Text generation タブ「Text generation タブ」は、テキスト生成を行うタブです。 以下の3つのモードがあり、「Inference mode タブ」で切り替えます。 ・chatモード : チャットアプリ風のモード ・notebookモード : Playground風のモード ・defaultモード : 入出力が別れているモード 1-1. chatモード・Input : メッセージ入力 ・Stop : テキスト生成の停止 ・Generate : テキスト生成 ・Continue : テキスト生成の続きの生成 ・Impersonate : なりすまし ・Regenerate : テキスト再生成 ・Remove last : 最後の会話ペアの削除 ・Copy last reply : 最後の返信のコピー (最後の返信→Input) ・Replace last re

                                                      text-generation-webui の 設定項目まとめ|npaka
                                                    1