タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

aiとmacに関するmassavaのブックマーク (1)

  • MacでLocalでLLMを走らせるならLM Studioが楽。 - Qiita

    MacでLocal LLM そこそこRAMの大きなMacbook proが手に入ったので、ローカルでのLLM実行を試すことにした。 しかし、MacGPUを有効化させることのできるローカル環境を整えるまでに、思いのほか苦労したので、メモとして記しておく。 とりあえず、以下の3つの選択肢を試した。 open interpreter text-generation-webui LM Studio で、結局のところ現状まともに動作してくれたのは、LM Studioだけだったのだが、それぞれの所感について示しておく。 1: open interpreter open interpreterそのもの説明については、Qiitaにもいくらでも記事があるのでここでは省略する。 例えば以下の記事など。 https://qiita.com/ot12/items/d2672144b914cb6f252f htt

    MacでLocalでLLMを走らせるならLM Studioが楽。 - Qiita
  • 1