はじめに ChatGPTをはじめとした生成AIの活用はすでに当たり前になっている状況です。しかし、クラウドベースの利用にはデータプライバシーの懸念やコストが伴うため、ローカル環境で同様のことが行えるメリットはそれなりに高いのではないかと思います。この記事ではELYZAが公開しているモデルをローカル環境にセットアップし、それをObsidian経由で利用できるようにするまでの方法を紹介します。 環境 Model: MacBook Pro 14-inch, Nov 2023 Chip: Apple M3 Memory: 24 GB OS: macOS 14.5 LLMのセットアップ ollamaのインストール ollamaはこちらからダウンロードし、ollama.app を実行します。ガイド通りにコマンドラインもインストールします。 ELYZAモデルの追加 まずはELYZAのモデルをこちらからダ