サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
Google I/O
hiroyamochi.github.io
タイトルを読んで字の如し、Ollama というLLMを動かせるツールをつかってローカルでLLMを動かして、VS Code の GitHub Copilot 拡張機能のチャットやコード補完をやってもらおうというハナシ。 2025年5月から GitHub Copilot が有料版でもある程度の上限が設けられるみたいなので、いざというときの逃げ道のため (という口実で技術的興味を満たすため) にやってみる。 参考: Premium リクエストについて LLMのこととか全然詳しくないので素人のお遊び程度にどうぞ。 環境OS: Windows 11 HomeCPU: Ryzen 7 3800XRAM: 56GBGPU: RTX 3060 12GBOllama のインストールOllama公式サイトからインストーラーを落としてインストールするだけ。 Ollama はGUIソフトではない (たぶん) なの
このページを最初にブックマークしてみませんか?
『hiroyamochi.github.io』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く