ollamaはオープンソースの大規模言語モデル(LLM)をローカルで実行できるOSSツールです。様々なテキスト推論・マルチモーダル・Embeddingモデルを簡単にローカル実行できるということで、どれくらい簡単か?実際に使えそうか?試してみました。 検証環境 本記事は以下を使用しての検証になります。 ローカル環境 端末 Mac ollamaアプリ ollama 0.1.32 その他 curl Node.js v20.11.1 0. セットアップ ollama公式ページからダウンロードし、アプリケーションディレクトリに配置します。 アプリケーションを開くと、ステータスメニューバーにひょっこりと可愛いラマのアイコンが表示され、ollama コマンドが使えるようになります。 1. 使い方 1-1. テキスト生成モデル 代表的なテキスト生成モデル gemma Google社が公開している、Gemi