OpenInterpreter はデフォルトだと GPT-4 が使われるが、ローカルの Code Llama を使うこともできるということで、 試しに設定して使ってみました。 設定をする上で何点かつまづいたので、解決に繋がったものをメモします。 今回使ったハードウェア環境は、M1 Macbook Pro 16GB です。 ローカルの Code Llama を使うにはOpenInterpreter は、ローカルの Code Llama を使うことができます。 ローカルの Code Llama を使うには、以下のようにします。 interpreter --local使いたいモデルのパラーメータを聞かれるので、今回は「7B」「Medium」「GPU あり」を選択しました。 Open Interpreter will use Code Llama for local execution. Use
![OpenInterpreter をMetalを使ったローカルのCode Llamaで使ってみた|alexweberk](https://cdn-ak-scissors.b.st-hatena.com/image/square/bdb9c097f98e1e5876a7f8cef3ea900c7f9d7d17/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F115877760%2Frectangle_large_type_2_b16de5d486539ec6b64636108eca7406.png%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)