タグ

2024年8月4日のブックマーク (2件)

  • 最強ローカルLLM実行環境としてのEmacs

    みなさん、ローカルLLMで遊んでいますか? 昨年末に、Ollamaが登場してから誰でも簡単にローカルLLMで遊べる時代がやってきました。そこで、僕もローカルLLMでどんなことができるんだろうと思って触りはじめたのですが、ローカルLLMを最大限に活用するためには、まずはどうやったらEmacsからローカルLLMを使えるようになるのかと考えるのはあまりにも自然な流れでした。 この記事では、ローカルLLMに関する基的な知識から、EmacsからローカルLLMを扱う方法までを解説していきたいと思います。 ローカルLLMの基礎知識 # ローカルLLMとは、LLM(大規模言語モデル)をローカル環境、つまり自分のパソコンで扱えるようにしたモデルです。Facebookが開発しているLlamaが業界のトップランナーで、それをベースにしたモデルを色々な組織(中には個人もいるのかも)が開発しています。 そのLla

    最強ローカルLLM実行環境としてのEmacs
  • 令和の時代にマックでオートマウント|Mattaka

    M2 Mac mini を購入して、Mac 環境が新3台構成(Mac Pro Late 2013、Mac mini 2018、Mac mini 2023)となった。 これを機会にマック間でのファイル共有環境をautomount(オートマウント、NFS)で構築し直した。 これは、その際の備忘録。 NFSサーバーサイド設定Mac mini 2019 をこれまでも7/24サーバーとして運用してきているので、今回NFSサーバーとして設定追加。 SSDデバイス追加NFSファイル共有用に、1TB SDDをUSB経由で接続。 'Disk Utility' にて1パーティション、'Mac OS Extended (Case-sensitive, Journaled)'形式で初期化。 名前をとりあえず"auto_home" とした。 NFS公開設定マックでNFSで公開するのは非常に簡単。 "/etc/exp

    令和の時代にマックでオートマウント|Mattaka