はじめに 前回の記事では、業務用ノートPCでローカルLLMを動かし、モデルごとの性能を比較しました。GPU非搭載のマシンでも動かせるモデルがあるとわかったところで、次に気になったのは「じゃあ何に使えるのか」です。 チャットで質問に答えさせるだけなら、クラウドのAPIを使えば済みます。ローカルで動かす意味を考えると、外部に出せないデータを扱う処理や、ネットワークに依存しない自動化が浮かびます。そこで、LLMが自律的にツールを使って動く「AIエージェント」を、ローカルLLMで組んでみました。 この記事では、ReActというアーキテクチャをフレームワークなしのPythonで実装した過程を紹介します。 LLMだけでは足りないもの LLMは与えられたテキストに対して応答を返す仕組みです。現在時刻を知らないし、計算も正確ではありません。学習データの範囲外のことには答えられず、答えようとするとハルシネー

