エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
llama.cpp(with cuda) install
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
llama.cpp(with cuda) install
最近 llama.cpp でのNvidia GPUを使う方法が BLASからCUDA方式へ変わったらしい。 メモ用に記述。 specs... 最近 llama.cpp でのNvidia GPUを使う方法が BLASからCUDA方式へ変わったらしい。 メモ用に記述。 specs win11 native insatll (No WSL/No docker) RTX 4090 cuda 11.8 cmake install wingetをget https://github.com/microsoft/winget-cli?tab=readme-ov-file#microsoft-store-recommended winget install CMake(特権じゃないと失敗した) 手順 ダウンロード https://github.com/ggerganov/llama.cpp