You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert
タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。
Claude Codeを日常的に使っていると、APIコスト、なによりもレート制限が気になって仕方がないものです。特にレビューをOpusで回すワークフローだと、1タスクあたりのトークン消費がなかなかのものになる。 「この中のいくつかをローカルLLMで肩代わりできないか?」と思って、OllamaをMCP経由でClaude Codeに組み込み、いろいろ試してみた。 使ったのは手軽に動かせるQwen 3.5 9B。結論から言うと、使えるところと使えないところがはっきり分かれた。lint・コード説明・翻訳/要約あたりは9Bでも十分。一方で設計レビューやコードレビューには力不足だった。大事なのは「全部ローカルでやろう」としないこと。使い分けが一番のポイントだった。 ローカルLLMで使えること lint(文法・参照エラー検出) 実装直後にローカルLLMでlintを回す。未定義変数、import漏れ、型の
🚨🚨🚨🚨🚨🚨🚨 現時点では「web認証」が追加されているため、claude code や codex のように、インストールしてwebで認証するだけで無料で使えます 以下の内容は別にやらなくて良くなっています 🚨🚨🚨🚨🚨🚨🚨 備忘録 に登録して、10$だけデポジットすると無料model(*-free)が1日1000回まで使えるようになるのでそれを使うのが多分いちばん楽で安く安心です サイト自体への信頼度については以下に情報を貼っておきます。運営者も著名人で大手から資金入ってるので個人的には問題ないと思ってますが不安な人は入金経路気をつけてください 2023年初頭(2〜3月)にAlex Atallah氏によって設立 CrunchbaseAlex Atallah- Alex Atallah氏は以前、OpenSeaの共同創業者兼CTOを務めていた実績 経歴:YC(Y
Apple AI as a real tool-calling agent: On-device Apple Intelligence (FoundationModels.Tool) handles UI automation requests like "take a photo using Photo Booth" locally — multi-step tool calls, zero cloud LLM tokens, falls through to the cloud LLM only on failure. SDEF + runtime app discovery: Bundle ID resolution is now zero-hardcoded. Apps in Agent/SDEFs/ plus every .app in /Applications, /Syste
TL;DR メモリ(RAM+VRAM)が潤沢なコンピュータにOllamaを入れる Qwen3.5 Uncensoredのモデルを用意しOllama上で使用可能にする Claude Code上でAPIの宛先を指定する やってみた感想 思っている以上にローカルLLMの構築とその活用までが簡単で驚いた。今まで食わず嫌いでローカルLLMを活用できておらずキャッチアップしていない事が恥ずかしくなった。 はじめに LLMの発展が著しく、自分が全部の作業を行うよりも、AIに作業を分担しないことが、最近では「AIに頼る怠惰」から「AIに頼らない事は愚か」に変わってきているような気がします。 そこで、身の回りのタスクは一旦AIがやってみて、その後良さそう(採用)・良くない(修正)・向いていない(AIでやらない)を判断してから、やらせようと思っています。 今回は気に入っているClaude CodeをローカルL
Cerebras is the go-to platform for fast and effortless AI training. Learn more at cerebras.ai. 8月1週の開始直後に申し込みが殺到したらしく、しばらく受付を停止していましたが[1]、今週から再開したようです。 [1]https://x.com/CerebrasSystems/status/1952512742574768599 料金は月額50ドル(Code Pro)と200ドル(Code Max)です。CerebrasはもともとLlama 4ベースの月1500ドルを超えるAPIをエンタープライズ向けに売っていましたが、Claude CodeのMaxプランに対抗するような形でこのプランを発表しました。no proprietary IDE lock-in, and no weekly limits!
HomeMac で VS Code、Continue、Ollama + Qwen2.5-Coder を使用して無料のローカル AI プログラミングアシスタントを構築
aiderとは aider はオープンソースのターミナルベースAIペアプログラミングツールです。LLMと対話しながら、ローカルのGitリポジトリに直接コードを編集・コミットしてくれます。 aiderのメリット 1. Git統合が強力 AIが行ったコード変更を自動でコミットし、内容に応じたコミットメッセージも生成してくれます。変更が気に入らなければ /undo で即ロールバック。Gitの差分管理がそのまま「AIの変更管理」になります。 2. エディタに依存しない Emacs でも Vim でもなんでもOK。ターミナルさえあれば動くので、SSHリモート環境でも使えます。IDEのプラグインに縛られることがありません。 3. リポジトリ全体を理解する aiderはtree-sitterを使ってリポジトリ全体の構造を把握し、関連ファイルのコンテキストを自動的にLLMに渡します。「このファイルだけ見て
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く