前の記事 wllama(Wasm binding for llama.cpp)を使ってローカルLLMを使ったダッシュボードを作った リポジトリ 実装したこと マルチプロンプト Chat — System + User を結合し、ストリーム出力(ask() in Chat.tsx) OpenAI 互換 Function Call — tools 配列 → tool_calls JSON(weatherTool 切替トグル) DL 進捗バー — initProgressCallback で重みロード%を表示(エンジン初期化ブロック) クライアントキャッシュ削除 — IndexedDB & CacheStorage をワンクリックで削除(clearCache()) モード切替 UI — ラジオボタンで Chat / Function を選択(Chat.tsx 冒頭 JSX) 内部構成 実行パス