エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
llama.cpp による transformersモデル の量子化|npaka
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
llama.cpp による transformersモデル の量子化|npaka
「llama.cpp」による「transformersモデル」の量子化の手順をまとめました。 ・M3 Max 1. Llama.cppのイ... 「llama.cpp」による「transformersモデル」の量子化の手順をまとめました。 ・M3 Max 1. Llama.cppのインストールLlama.cppのインストール手順は、次のとおりです。 (1) Xcodeのインストール。 「Llama.cpp」は、インストール時に環境にあわせてソースからビルドして利用するため、MacではXcodeのビルドツールが必要になります。 (2) リポジトリのクローン。 $ git clone https://github.com/ggerganov/llama.cpp $ cd llama.cpp(3) ビルド。 $ make(4) llama.cppフォルダのあるフォルダに移動。 今回は、llama.cppフォルダのあるフォルダで作業します。 $ cd ..2. 変換するtransformersモデルの準備今回は練習用に「meta-llama