![](https://cdn-ak-scissors.b.st-hatena.com/image/square/1a7d7f2a278ce3bc69cceacca9bed7672d038646/height=288;version=1;width=512/https%3A%2F%2Fres.cloudinary.com%2Fzenn%2Fimage%2Fupload%2Fs--YKAJEl-B--%2Fc_fit%252Cg_north_west%252Cl_text%3Anotosansjp-medium.otf_55%3AM1%25252FM2%252520Mac%2525E3%252581%2525AE%2525E3%252583%2525AD%2525E3%252583%2525BC%2525E3%252582%2525AB%2525E3%252583%2525AB%2525E3%252581%2525A7%2525E6%252597%2525A5%2525E6%25259C%2525AC%2525E8%2525AA%25259E%2525E5%2525AF%2525BE%2525E5%2525BF%25259C%2525E3%252581%2525AELLM%2525E3%252582%252592%2525E5%2525AE%25259F%2525E8%2525A1%25258C%2525E3%252581%252599%2525E3%252582%25258B%252528ELYZA%2525E7%252589%252588%252529%252Cw_1010%252Cx_90%252Cy_100%2Fg_south_west%252Cl_text%3Anotosansjp-medium.otf_37%3Azaiwa%252Cx_203%252Cy_121%2Fg_south_west%252Ch_90%252Cl_fetch%3AaHR0cHM6Ly9zdG9yYWdlLmdvb2dsZWFwaXMuY29tL3plbm4tdXNlci11cGxvYWQvYXZhdGFyL2NhMDFjNTg2MWUuanBlZw%3D%3D%252Cr_max%252Cw_90%252Cx_87%252Cy_95%2Fv1627283836%2Fdefault%2Fog-base-w1200-v2.png)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
M1/M2 Macのローカルで日本語対応のLLMを実行する(ELYZA版)
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
M1/M2 Macのローカルで日本語対応のLLMを実行する(ELYZA版)
make同様、バージョンが出てこない場合はインストールしておいてください。 llama.cppの環境構築 llama.... make同様、バージョンが出てこない場合はインストールしておいてください。 llama.cppの環境構築 llama.cppのビルドを行います。 llama.cppはビルドされていない状態でgithub上で展開されているため、自分でビルドする必要があります。以下の手順で実行してください。 モデルのダウンロード modelsディレクトリにllama2のモデルをダウンロードします。 gguf化されたものが既に展開されているので、今回はこちらを利用します。 ※この方は他にも多数の日本語モデルのgguf化をされているのでMacでLLM使うならチェックをおすすめします。 Files and Versionsのタブの中を見ると複数のファイルがありますが、 ある程度のスペックがあるならELYZA-japanese-Llama-2-7b-fast-instruct-q8_0.ggufがおすすめです。 ダウ