はじめに # 前回は、LM Studio+Gemmaでクラウドに頼らないAI環境を構築しました。 本記事では、LM Studio を使ってローカルでLLM(例:Gemma 3 4B)を動かし、さらに LangChain と Streamlit を組み合わせて、クラウドに頼らずに動作する RAG(Retrieval-Augmented Generation) 環境を構築します。 題材として、誰もが知っている「桃太郎」の物語を使い、自分で用意した知識ベースを読み込む ローカルAIチャットボット を作っていきます。 今回のゴールは以下です。 LM StudioでローカルLLMをAPIサーバーとして動かす LangChainでRAG(検索+生成)パイプラインを構築する StreamlitでチャットUIを作成する すべて自分のPC上で完結し、インターネット接続がなくても動作します。 まさに「自分だけ

