こんにちは、たねやつです。 これまでの記事で、LM Studioを使ってローカルLLMとチャットする方法や、モデルの設定について解説してきました。 今回は、LM Studioが持つ非常に強力な機能、「ローカルAPIサーバー」に焦点を当てます。この機能を使いこなせば、自作のプログラムや他のツールとローカルLLMを連携させ、AIを活用した独自のワークフローを構築できます! 前の記事 この記事でできること ローカルサーバー機能とは? サーバーの起動と設定 curlでAPIを叩いてみる Pythonから接続する 他のツールとの連携 最後に 次の記事 前の記事 www.taneyats.com この記事でできること LM Studioのローカルサーバー機能が理解できる ローカルAPIを起動し、テストできるようになる PythonプログラムからローカルLLMを呼び出せるようになる 他のツールとの連携の

