エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
GPUなしでも動く!ローカルLLMとllama.vscodeでコード補完|しぴちゃん
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
GPUなしでも動く!ローカルLLMとllama.vscodeでコード補完|しぴちゃん
2. llama-vscode のインストールllama-vscode は、ggml.ai なる企業によってv0.0.1が2025年1月21日にリ... 2. llama-vscode のインストールllama-vscode は、ggml.ai なる企業によってv0.0.1が2025年1月21日にリリースされたVSCode拡張で、llama.cpp を経由してローカルLLMによるコード補完を行います。 VSCodeを起動したら、左のタブの拡張機能/Extensions (□が4個あるやつ) から拡張機能を検索します。llama vscode と検索してインストールします。 llama-vscode利用するためにはモデルが必要なので、モデルをダウンロードします。 3. モデルのダウンロードw64webkit.exe を起動し、モデルをダウンロードしたいディレクトリに移動します。 第1回・第2回は執筆時最新のモデルであるDeepSeek R1を利用してきましたが、こいつはコード補完機能に対応していないので使えません(注1)。 今回はQwen2.