はじめに 本記事では、大規模言語モデル(LLM)とMLOpsの連携を学ぶ第一歩として、ローカル環境でLLMを活用したチャットボットの構築に焦点を当てます。特に、LM StudioとLangChain、Streamlitを組み合わせた実践的なアプローチを紹介します。 既存のチュートリアル記事(約2年前のもの)を参考にしつつ、ツールのインストール方法やライブラリのAPI変更点など、現在の環境に合わせた具体的な手順と技術的な考察を加えて解説します。最新の環境でスムーズにローカルLLMアプリケーションを構築できる実践的な情報の共有を目指します。 環境 本記事の動作確認は以下の環境で行いました。 MacBook Pro 14インチ 2021 チップ:Apple M1 Pro メモリ:32GB macOS:15.5(24F74) ゴール PythonでローカルLLMとチャットするアプリケーションを構築

