タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

GPUと機械学習に関するgigs123のブックマーク (1)

  • OpenInterpreter をMetalを使ったローカルのCode Llamaで使ってみた|alexweberk

    OpenInterpreter はデフォルトだと GPT-4 が使われるが、ローカルの Code Llama を使うこともできるということで、 試しに設定して使ってみました。 設定をする上で何点かつまづいたので、解決に繋がったものをメモします。 今回使ったハードウェア環境は、M1 Macbook Pro 16GB です。 ローカルの Code Llama を使うにはOpenInterpreter は、ローカルの Code Llama を使うことができます。 ローカルの Code Llama を使うには、以下のようにします。 interpreter --local使いたいモデルのパラーメータを聞かれるので、今回は「7B」「Medium」「GPU あり」を選択しました。 Open Interpreter will use Code Llama for local execution. Use

    OpenInterpreter をMetalを使ったローカルのCode Llamaで使ってみた|alexweberk
  • 1