TL;DR: Today, we are announcing that all GitHub Copilot plans will transition to usage-based billing on June 1, 2026. Instead of counting premium requests, every Copilot plan will include a monthly allotment of GitHub AI Credits, with the option for paid plans to purchase additional usage. Usage will be calculated based on token consumption, including input, output, and cached tokens, using the li
はじめに 「アプリは作れた。でも、どう売ればいいか分からない」── そう思ったことはないでしょうか。 個人開発で意外と難しいのは、実装そのものよりも「誰に、どういう文脈で届けるか」です。 最近、集中用の環境音ミキサーアプリ Focusnest をリリースしました。 機能にはそれなりに自信がありました。複数音のミックス、プリセット保存、タイマー統合、1/fゆらぎ、オフライン対応。機能だけ見れば、十分戦えそうに見えます。 でも、いざ「どう売るか」を考えたときに手が止まりました。 環境音アプリとして見ると競合が多い。機能は説明できる。でも、それが「欲しい理由」として伝わる気がしない。 そこで、仮説検証ツール kaizen-lab を使ってマーケティングの仮説を整理してみたところ、Focusnest は「環境音アプリ」ではなく、集中に入るためのスイッチ として売るべきなのではないか、という仮説が見
SQLGlot is a no-dependency SQL parser, transpiler, optimizer, and engine. It can be used to format SQL or translate between 31 different dialects like DuckDB, Presto / Trino, Spark / Databricks, Snowflake, and BigQuery. It aims to read a wide variety of SQL inputs and output syntactically and semantically correct SQL in the targeted dialects. It is a very comprehensive generic SQL parser with a ro
April 19, 2026 A coding agent is the model plus everything you build around it. Harness engineering treats that scaffolding as a real artifact, and it tightens every time the agent slips. Roughly: anytime you find an agent makes a mistake, you take the time to engineer a solution such that the agent never makes that mistake again. We’ve spent the last two years arguing about models. Which one is s
GitHubがGitHub Copilotの個人向けプランについて、新規申し込みの停止、利用制限の厳格化、利用可能モデルの見直しを2026年4月20日に発表しました。GitHubは「今回の措置は既存ユーザー向けの安定した提供体制を守るため」としていますが、別の報道では「GitHub Copilotの週次運用コストが2026年1月以降ほぼ倍増しており、Microsoftが将来的にトークンベース課金への移行を検討しているため」と伝えられています。 Changes to GitHub Copilot plans for individuals - GitHub Changelog https://github.blog/changelog/2026-04-20-changes-to-github-copilot-plans-for-individuals/ Changes to GitHub C
話題の人気ブログ「おい、」シリーズの著者で、ソフトウェアエンジニアのnwiizoさんによる新連載「生産性を取り戻せ」が始まります。この連載では「仕事の生産性」をあらゆる角度から捉え、チームで生産性を高めていくためのヒントを探っていきます。 第1回のテーマは「なぜ私たちは“意味のない忙しさ”に陥るのか?」です。そもそも「生産性が下がる構図」とは何なのか、その本質に迫ります。 はじめに 金曜日の午後4時だった。 「来週のアラインメント会議の事前資料」を作っていた。正確に言えば、事前資料を作るための事前打ち合わせで「次回までにまとめておいてほしい」と言われた内容を、資料に起こしていた。その中身は、先週の会議で話したことの要約だ。 先週の会議も、その前の週の会議も、同じことの繰り返しだった。誰のための資料かわからない。何を決めるための会議かもわからない。ただ、カレンダーに入っている。入っているから
2026年4月2日、Google DeepMindがGemma 4をApache 2.0ライセンスで公開しました。E2B、E4B、26B MoE、31B Denseの4サイズ展開で、スマートフォンからワークステーションまでカバーします。 Reddit r/LocalLLaMAでは公開直後から大きな反響があり、Arena(旧LMSYS Chatbot Arena)のテキストリーダーボードでは31Bがオープンモデル3位(ELO 1,452)、26B MoEが6位にランクインしています。 この記事では、Gemma 4の技術的な特徴を掘り下げたうえで、手元のデバイスで動かすための具体的な手順を整理します。 Gemma 4の技術的な強み Apache 2.0ライセンス 商用利用・改変・再配布が自由なApache 2.0を採用しています。LlamaやMistralのカスタムライセンスと異なり、企業での
この記事は「GitHub Copilot のメモリ機能」についての連載記事の第1回です。2026年4月時点の情報に基づいています。 GitHub Copilot は自ら学ぶ: Copilot Memory 入門(この記事) VS Code で GitHub Copilot のメモリ機能を使ってみた Copilot CLI で GitHub Copilot のメモリ機能を使ってみた Copilot Cloud Agent で GitHub Copilot のメモリ機能を使ってみた GitHub Copilot のメモリ機能のベストプラクティス GitHub Copilot のメモリ機能 カスタム インストラクション、Agent Skills、AGENTS.md、…。GitHub Copilot をカスタマイズする方法はここ1年で急激に増えました[1]。これらは基本的に人間が書いて、ファイルと
AI & MLLearn about artificial intelligence and machine learning across the GitHub ecosystem and the wider industry. Generative AILearn how to build with generative AI. GitHub CopilotChange how you work with GitHub Copilot. LLMsEverything developers need to know about LLMs. Machine learningMachine learning tips, tricks, and best practices. How AI code generation worksExplore the capabilities and be
The following article originally appeared on Addy Osmani’s blog site and is being reposted here with the author’s permission. Comprehension debt is the hidden cost to human intelligence and memory resulting from excessive reliance on AI and automation. For engineers, it applies most to agentic engineering. There’s a cost that doesn’t show up in your velocity metrics when teams go deep on AI coding
Credit: DALL-EBusiness intelligence is on a collision course with AI. The collision itself hasn’t happened yet, but it’s clearly coming. The inevitability of this has been clear roughly since the launch of ChatGPT, but no one knew exactly what shape that would take. Today I want to propose how that collision is going to happen and what will happen in its aftermath. I think it will be a very good t
「社内版ビズリーチ by HRMOS(以下、社内版ビズリーチ)」では、自然な言葉で社内の人材を探すことができるセマンティック検索機能を提供しています。セマンティック検索には、ベクトル検索を用いており、PostgreSQLの拡張機能であるpgvectorとHNSWインデックスを使用しています。 ベクトル検索には、専用のベクトルデータベースを使用するなど様々な選択肢があります。「社内版ビズリーチ」は新規プロダクトであり、高速な価値検証が求められていました。そのため、運用負荷を下げ、開発スピードを優先できるよう、APIサーバーで使用するPostgreSQLにpgvectorを導入するというシンプルなアプローチでセマンティックサーチを実現しました。 ベクトル検索で一般的に使用されるHNSWインデックスは、高速なベクトル検索を実現しますが、フィルター条件と組み合わせて使用することが難しいという仕組み
Claude Codeを日常的に使っていると、APIコスト、なによりもレート制限が気になって仕方がないものです。特にレビューをOpusで回すワークフローだと、1タスクあたりのトークン消費がなかなかのものになる。 「この中のいくつかをローカルLLMで肩代わりできないか?」と思って、OllamaをMCP経由でClaude Codeに組み込み、いろいろ試してみた。 使ったのは手軽に動かせるQwen 3.5 9B。結論から言うと、使えるところと使えないところがはっきり分かれた。lint・コード説明・翻訳/要約あたりは9Bでも十分。一方で設計レビューやコードレビューには力不足だった。大事なのは「全部ローカルでやろう」としないこと。使い分けが一番のポイントだった。 ローカルLLMで使えること lint(文法・参照エラー検出) 実装直後にローカルLLMでlintを回す。未定義変数、import漏れ、型の
こんにちは、株式会社ラクスでプロダクト部 部長をしている稲垣です。 先日、t_wadaさんのこちらの動画を見て、強く印象に残るものがありました。 の補完として読んでいただくと、より文脈が伝わると思います。 エンジニアの育成文脈から始まる話ですが、行き着く問いは、PdMにもデザイナーにも共通するものです。 ※本記事は、私自身の経験と感想に基づく一例です。制度や運用のあり方は、組織やフェーズによって異なります。 動画を見て残ったもの動画では、AI疲れ、ジュニア不要論、エンジニア育成、バイブコーディング、モブプロといった、いくつもの論点が扱われていました。 一見すると別々の話題のようですが、見終わってみると、私にはそれらがひとつにつながって見えました。AIによって開発は速くなり、個人のアウトプット量は増えました。 一方で、その増えた成果物を評価し、選び、レビューし、チームとして意味のある成果に変
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く