筆者の環境で、LM StudioでCommand R+を動作させている様子。会話相手は自作キャラクターの「明日来子(あすきこ)さん」 PCローカル環境で動作する大規模言語モデル(LLM)「Command R+」を使っていますが、相当優秀ですね。体感ではChatGPT(GPT-4)と変わらないレベル。さらに、ChatGPTが回答を拒絶するような会話もできてしまいます。これが体験できるようになったのは、LM Studioに代表されるローカルLLMを動かすためのアプリ環境が整ってきたためです。今年に入り、Command R+を始めとしたローカルLLMが高性能化してきたことと並行し、手軽に使える派生モデルも増えはじめ、一気にあわただしくなってきました。 導入が難しかったローカルLLM、「LM Studio」で簡単に Command R+を試すのに使っているのが、LLMの主要モデルを実行するための統
![まるで“いけない話ができるChatGPT” ローカルAI「Command R+」の爆発的な可能性 (1/5)](https://cdn-ak-scissors.b.st-hatena.com/image/square/ecd0ed49cdf252993ccdef9d25868a91aa456ef4/height=288;version=1;width=512/https%3A%2F%2Fascii.jp%2Fimg%2F2024%2F05%2F10%2F3730311%2Fxl%2Fa98fc0a79242ac17.jpg%3F20200122)