You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert
2026.01.28 - 追記開始 コメントで教えていただきましたが、設定ファイルで直接設定すればCLIじゃなくVS拡張でもReasoning Effortを指定できるようです。 参考:GitHub Copilot で xhigh(Extra High)推論を使う 2026.01.28 - 追記終了 皆さん、GitHub Copilot使ってますか?私は日常的に使っています。 GitHub CopilotってほかのAIハーネスと違って、サブスクの課金体系が入出力トークン量ではなく、「プレミアムリクエスト」という謎単位で課金されます。 これを実はうまく利用すると、GPT-5.2-Codex xhighでがっつりレビューさせたり調査させても、最安1回4円で使えます。 GitHub Copilotでコスパ良く活用するコツ これにはコツがあって… GitHub Copilot CLIを使う(VS拡
あなたのXポストが10万回表示される投稿と、わずか100回しか表示されない投稿。この圧倒的な差はどこから生まれるのでしょうか? 2025年9月、イーロン・マスク氏率いるX(旧Twitter)が、これまで企業秘密として守られてきた推薦アルゴリズムをオープンソース化しました。これは、SNS業界にとって歴史的な出来事です。何十億もの投稿から、あなたのタイムラインに表示される数百の投稿を選び出す「神の手」とも呼べる仕組みが、ついに明らかになったのです。 Today, as part of our effort to make our platform transparent, we are open-sourcing the latest code used to recommend posts on the For You timeline. Our algorithm is always a
Ryan J. SalvaSenior Director, Product Management, Google Cloud ※この投稿は米国時間 2025 年 8 月 5 日に、Google Keyword blog に投稿されたものの抄訳です。 今年 6 月に、ターミナルで Gemini の力を活用できるオープンソース AI エージェント Gemini CLI をリリースしました。リリース以来、ご利用いただいた開発者の方々から寄せられた熱狂的な反応は想像以上のものでした。多数の機能リクエストやコントリビューションが続々と寄せられる中、私たちは自ら Gemini CLI を活用し、イシューの振り分けやプルリクエストのレビューを自動化しました。この新しいワークフローがコミュニティ メンバーの目に止まり、「ぜひ共有してほしい」という声が多数寄せられたことから、この度公開を決定しました。 本日
2025/10/31 🔥 we have released the anisora-anymask model weights, supporting image-to-video generation with temporal and spatial masks. Huggingface Model Scope 2025/09/25 🔥The 12GB VRAM available version of V3.1 has been uploaded to ModelScope. Model Scope Download 2025/09/23 🔥We have released V3.2 weights, which is trained on the stronger wan2.2 model and can reduce the number of inference step
Devin, Coding Agent (Github Copilot), Codex (OpenAI) やJules (Google)のような、バックグランド動作するコーディングエージェントが続々と発表されて、ついに先日のAnthropicのカンファレンスでClaude Codeでも同様のことが行えるようになりました! Claude CodeのDevin型コーディングエージェントはGithubワークフロー上で動作するのですが、なんと実装のコードがなんと公開されているではありませんか!! プロンプトやGithubのMCP設定等の実装も垣間見ることが出来ます! AIエージェントを開発している身からすると常時稼働型エージェントを作りたいと考えており、バックグラウンド型のコーディングエージェントの動作はどうしても深ぼらねばと思っていた矢先に撒き餌が...! それだけでなく、プロンプト設計自体の完
Crawl4AI turns the web into clean, LLM ready Markdown for RAG, agents, and data pipelines. Fast, controllable, battle tested by a 50k+ star community. ✨ Check out latest update v0.8.6 ✨ New in v0.8.6: Security hotfix — replaced litellm with unclecode-litellm due to a PyPI supply chain compromise. If you're on v0.8.5, please upgrade immediately. ✨ Recent v0.8.5: Anti-Bot Detection, Shadow DOM & 60+
このブログでは、GitHub Copilotの多数のリリースについてご紹介します。これらのリリースにより、GitHub Copilotは世界をリードするモデルを活用し、ツールやサービスのコンテキストを強化することで、よりエージェントとしての能力を高めます。 Visual Studio Codeのエージェントモードを全ユーザーに提供します。このモードはMCPをサポートしており、必要なあらゆるコンテキストや機能へのアクセスを可能にします。さらに、オープンソースでローカルで動作するGitHub MCPサーバーをリリースします。これにより、MCPをサポートするさまざまなLLMツールにGitHubの機能を追加できるようになります。 マルチモデルの選択肢として、Anthropic Claude 3.5、3.7 Sonnet、3.7 Sonnet Thinking、Google Gemini 2.0 F
Model Context Protocol(MCP)は、AI(LLM)の能力を拡張するためのプロトコルです。このブログ記事では、以下について書きます。 MCPの概要 MCPを使ってみた MCPを作ってみた MCPとは何か? Model Context Protocolは、AI(GPTやClaudeなどのLLM)が外部システムやAPIと通信するための標準化されたプロトコルでAnthropic社が定めたものです。MCPを使用することで、AIアシスタントは以下のようなことが可能になります: インターネット上の情報にアクセスする データベースを検索する ファイルシステムを操作する 外部APIを呼び出す GitやGitHubなどの開発ツールを操作する MCPの公式サイトの紹介文には以下のような概念図があります。 modelcontextprotocol.io introductionより引用 また
はじめに 最近、あるプロジェクトでGitHubリポジトリの内容をAIに分析させたくて、「どうやってClaudeとGitHubを連携させればいいんだろう...」と頭を抱えていたんです。何時間もネットで調べた末に出会ったのがMCPサーバーでした。これが本当に目から鱗だったんですよ!😲 「石の上にも三年」というように、私は根気強く数週間かけて様々なMCPサーバーを試してきました。そして今日は、私の開発ワークフローを劇的に変えた10個の素晴らしいMCPサーバーを、4つの主要カテゴリーに分けて紹介したいと思います! そもそもMCPサーバーって何?🤔 リストに入る前に、MCPサーバーについて簡単に説明しますね。MCPは「Model Context Protocol」の略で、AIモデルが外部ツールやデータソースと安全かつシームレスに連携するためのオープンスタンダードなんです。 簡単に言えば、お気に入
ドキュメント GitHub 【0】事前準備 Ollamaをインストールする 公式サイトから「Ollama」をダウンロードして、起動。 ダウンロードするとすぐに利用できるようになります。 CLIコマンドを確認する コマンド 内容
In a recent update I changed how unmerged LoRA weights are handled: Previously mostly due to my laziness they were always loaded from RAM when used, this was of course inefficient and also made using torch.compile for LoRA applying difficult, thus forcing a graph break when using unmerged LoRAs. Now the LoRA weights are assigned as buffers to the corresponding modules, so they are part of the bloc
とにかくケチりたい、そんな気持ちで作ったツールの話です。 元々開発にCline(Claude Dev)やAiderなどの開発ツールを駆使していました。 ただ、APIの料金が常に心配で、できる限り安く済ませたい気持ちもあり、Claude Proを契約してWeb版にファイルを1つ1つアップロードする日々を過ごしていました。 ある日それが面倒になってきて「全部1ファイルにしたらいい感じに読み込んでくれるのでは?」と思い、作ってみたら思いのほかうまくいったので公開しました。 百聞は一見にしかずということで、 こちらのデモにお気に入りのGitHubリポジトリ(例: honojs/hono)を入力してみてください。 Claudeが得意とするXMLっぽいフォーマットで出力し、そのままClaudeにアップロードすることができます。 完全にAIバブルの波に乗ったとも言えるのですが、多くの競合がいる中でスター
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く