エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ローカルにWebUI付きLLM環境を構築 with Ollama|JAP
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ローカルにWebUI付きLLM環境を構築 with Ollama|JAP
Ollama と Open WebUI を組み合わせて ChatGTP ライクな対話型 AI をローカルに導入する手順を解説しま... Ollama と Open WebUI を組み合わせて ChatGTP ライクな対話型 AI をローカルに導入する手順を解説します。 完成図(これがあなたのPCでサクサク動く!?) 環境この記事は以下の環境で動作確認を行っています。 OS Windows 11 Home 23H2 CPU 13th Gen Intel(R) Core(TM) i7-13700F 2.10 GHz RAM 32.0 GB GPU NVIDIA GeForce RTX 4070 Ti 専用 GPU メモリ 12.0 GB 共有 GPU メモリ 15.9 GB WSL2 Ubuntu 22.04.3 LTS Ubuntu と Docker のインストールWindows11 に WSL2 を使って Ubuntu をインストールします。 環境の構築は Terminal ( CLI ) で行います。 Ubuntu のイ