はじめに本記事は、ローカルパソコン環境でLLM(Large Language Model)を利用できるGUIフロントエンド (Ollama) Open WebUI のインストール方法や使い方を、LLMローカル利用が初めての方を想定して丁寧に解説します。 ※ 画像生成AIと同じで、ローカルでAIを動作させるには、ゲーミングPCクラスのパソコンが必要になります。具体的には、16GB以上のシステムメモリと、8GB以上のNVIDIA製のGPUメモリが必要になります。 (ollama) Open WebUI■ LLM をローカルで利用するメリットChatGPT や Gemini、Copilot等が一般的になり、AI とチャットを通して情報を得たり、解析する行為が当たり前になりました。しかし、基本無料で利用可能なこれらのサービスを、なぜローカルで行う必要があるのか?何か利点があるのか?に関して考察して
![【ローカルLLM】Ollama Open WebUI 完全解説【初級向け】|Catapp-Art3D](https://cdn-ak-scissors.b.st-hatena.com/image/square/66b90db4f7b5b185f9c2bc7f39fd0aaf33f74b9f/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F145430937%2Frectangle_large_type_2_73a56b82d0fe36915c4a3042d007d2e5.jpeg%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)