NTTデータグループは2026年度中にIT(情報技術)システム開発をほぼ生成AI(人工知能)が担う技術を導入する。開発工程をAIに適した形にし、人による作業を減らす。国内を中心に深刻なIT業界の人材不足を解消する抜本策となり、システム業界が労働集約型の事業モデルから転換する契機となる。開発工程そのものについて、人ではなく生成AIに合わせて単純にする「AIネーティブ開発」と呼ぶ手法を取り入れる。
設計書・コード・テストを全部AIに書かせて半年間開発してみたよ 1. はじめに 本記事は、私のチームが半年間AIネイティブ開発を行った経験とその感想をまとめたものです。 AIネイティブ開発とは、AI技術を活用してソフトウェア開発を行うことを指します。2025/10~2026/3の期間中、私たちはお客様に納品するシステムをAIネイティブで開発しました。その経験と私なりに感じたことをまとめてみました。 ※ なお、私の取組は全社的な取組とは関係ありません。 ※ あくまで、私のチームが独自に行っている取組ですので、その点はご留意ください。 2. 自己紹介 初めてテックブログに記事を書くので、簡単な自己紹介を。 名前:茂呂範(もろすすむ) 所属:株式会社NTTデータ 第三公共事業本部 デジタルソサエティ事業部 プロジェクト推進担当(参照) 立場:様々なシステムの基盤構築、基盤維持運用を担当している組
同様の被害は他にも報告されており、13,428USD、82,000USDといった請求がそれぞれ別のユーザーから寄せられています(調べると結構出てきます)。 下の方のredditでは、このままでは倒産してしまう、というかなり悲痛な声があります。82000USDは約1200万円なので、当然でしょう、、。普通にサイバー犯罪の被害者なので、FBIにも相談したみたいです。 本題に戻ると、予算アラートが間に合わなかったのは、Google Cloudの請求システムに構造的な遅延があるためです。公式ドキュメントには最大10分程度と記載されていますが、実際には 数時間遅れ で発火するケースも報告されています。アラートだけでは、この種の攻撃に対して本質的に無力です(これはGCPに限った話ではありません)。 実はこの問題は、2025年11月にセキュリティ企業Truffle Securityが Googleの脆弱
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? お前がコードを書き始める前に 言っておきたい事がある かなりきびしい話もするが 俺の本音を聞いておけ はじめに これから少しの間、不器用で、偉そうで、厳しいことを言う。けれど最後まで聞いてくれれば、その裏側にあるものもわかってもらえると思う。だから先に謝っておく。生意気な口を、許してほしい。 まず、お前に話す前に、業界を取り巻く空気の話をさせてくれ。ソフトウェア業界には、昔から消えない風潮がある。 「売れたプロダクトはすべて正しい」 「品質? 障害が起きなければそれでいい」 「細かいことはベンダーに丸投げで構わない」 ビジネスの現場で生
Storybook MCP のセットアップ Storybook MCP を使用するには @storybook/addon-mcp アドオンが必要です。以下のコマンドでインストールします。 npm install @storybook/addon-mcp .storybook/main.ts ファイルを開いて、@storybook/addon-mcp をアドオンに追加します。 export default { "stories": [ "../src/**/*.stories.mdx", "../src/**/*.stories.@(js|jsx|ts|tsx)" ], "addons": [ "@chromatic-com/storybook", "@storybook/addon-vitest", "@storybook/addon-a11y", - "@storybook/addon-
サービスのURLを入力するだけで、 Wicle AIエージェントがお答えします プロダクトの概要やビジネスモデル、機能性、競合情報などを自動抽出して 顧客理解の向上につながるインサイトが得られます。 0123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789,012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890123456789件のサービスが分析されています
はじめに 「Agentic Coding 生成AI時代のシステム開発入門」という本を出すくらいなのでAIエージェントのハーネスには興味があって、1週間ほど調査した結果、「ハーネス」の見え方が固まりつつあるので、表題についてラフに書き留めておきます。根拠があるものないものがあるので話半分に読んでください。 スライドの形式で読みたい人はこのスライドの30Pまでくらいを読むと、本記事に近い知見を得られます。 1. ハーネスという言葉への混乱 最近、AI Agent関連のドキュメントやブログで「エージェントハーネス」「ハーネスエンジニアリング」という言葉がよく出てきます。言葉がそれぞれ指す概念が曖昧かつズレている場合がちらほらあり、バズワードなのかなと感じてしまうのが最近の悩みです。 内部ハーネスと外部ハーネス コーディングエージェントユーザ視点でのmartinfowlerのハーネスの記事があって
現在各社がしのぎを削ってAIの精度を高め合っている。その結果、AIシステムの運用コストは増加傾向にあり、将来的に定額制から従量課金制への移行が進むのではないかと考えている。 現在 Claude Pro を個人利用しているが、実際にコスト圧力の兆候は見え始めている。2026年3月にはピークタイム(平日のPT 5:00〜11:00)にセッション制限の消費速度が引き上げられたほか、5時間ごとのセッション制限とは別に週単位での計算リソース使用量にも上限が設けられている。今後さらに定額制プランの制限が強まる、あるいは従量課金へ移行する可能性は否定できない。そのとき慌てて移行先を探さなくても良いように、ローカルLLMを触ってみることにした。 本記事では、ローカルLLMの実行環境としてOllamaを、AIコーディングエージェントとしてOpenCodeをインストールし、完全にローカルで動作するAIコーディ
はじめに 3月、4月、それは別れと出会いの季節です。 やりたいことはタイトルの通りです。早速行きましょう。 課題 会社飲み会の幹事をやったことがある方なら経験があるでしょう。上司にちょっと多めに払ってもらったり、入社年次の浅い若手は割り引かれたりするアレです。全体額が一致することが大前提の上で、一旦どれくらいの傾斜をつけてよいのか、頭を悩ませるものです。特に歓送迎会関連の飲み会になると人数も多くなって、条件がどんどん複雑になっていきます。 会社によっては若手が幹事をやらされることが往々にしてあります。安くしてもらえる立場である若手社員が傾斜配分を考えねばならないという状況は非常にやりにくいでしょう[1][2]。そんなとき、AIがこう判定しました!と言ってAIに責任を擦り付けることもできます。これが正しいAIの使い方です[3]。 便利なツールとして、数理最適化というものがあります。条件を定め
ナレッジワークでは、お客様に安定したサービスを提供するため、E2Eテストを活用した品質保証に取り組んでいます。ただし、E2Eテストの開発・保守には多くの時間と労力が必要で、正直なところ手間だと感じる場面も少なくありません。本記事では、そうした課題を Playwright MCP を活用して解消した取り組みをご紹介します。 ※ Playwright MCP は Playwright をAIエージェントなどから実行し、ブラウザ操作を行えるようにする MCP(Model Context Provider)です 課題 主に次の3点に課題がありました。 ロケーターの記述に手間がかかる テストケースの記述に手間がかかる テストのデバッグに時間がかかる それぞれ具体的に説明します。 ロケーターの記述に手間がかかる E2Eテストでは、ページ上で行いたい操作に必要なボタンやインプットなどのロケーター(セレク
The next $1T company will be a software company masquerading as a services firm. Every founder building an AI tool is asking the same question: what happens when the next version of Claude makes my product a feature? They’re right to worry. If you sell the tool, you’re in a race against the model. But if you sell the work, every improvement in the model makes your service faster, cheaper, and hard
生成AIがGoogleテクノロジーの公式ドキュメントを参照できる「Developer Knowledge API & MCP Server」、Googleが発表 Googleは、Google Cloud、Android、FirebaseなどGoogleテクノロジーの公式ドキュメントの情報を取得し、生成AIから参照できるDeveloper Knowledge APIおよびそれに対応したMCP(Model Context Protocol)サーバのパブリックプレビューを発表しました。 Google公式ドキュメント群をAPI経由で取得 Developer Knowledge APIは、Googleの公式ドキュメントの内容を取得できるAPIです。これによりスクレイピングなどに頼ることなく、つねに公式ドキュメントの最新の内容にアクセスできます。 アクセスできるのはGoogleクラウド、Android
マイクロソフト、ローカルAI環境をインストーラで配布できる「Foundry Local」正式リリース。MacやLinuxにも対応 マイクロソフトは、アプリケーションにバンドルしてインストーラで配布できるコンパクトなローカルAI環境「Foundry Local」の正式リリースを発表しました。 開発者はアプリケーションにFoundry LocalのAI環境をバンドルしてインストーラで配布できるため、クラウドなどに依存せず、ユーザーによる設定や追加導入なども不要な、ローカルで完結するAIソリューションをユーザーに提供できるようになります。 ハードウェアに最適化、多数のAIモデルから選択 Foundry Localは、その内部にあるAIモデルのランタイムとしてONNX RuntimeとWindows MLが利用され、その上にFoundry Catalogから選択可能なさまざまなAIモデルを載せるこ
GitHubは、AIエージェントによるコーディングツール「GitHub Copilot CLI」の実験的新機能として、メインで利用するAIモデルとは異なるAIモデルをセカンドオピニオン役として使える「Rubber Duck」モードを発表しました。 GitHub Copilot CLIは、AnthropicのClaudeやOpenAIのGPT、GoogleのGeminiなどのAIモデルを用いたAIエージェントにより、コーディングの計画から実装、デバッグなどのさまざまな作業を自律的に実行させることが可能なツールです。 今回発表された実験的な新モード「Rubber Duck」では、メインで利用するAIモデルとは異なるAIモデルを用いて、メインのAIモデルに対するレビューを行わせるセカンドオピニオン役にできるようになります。 もともと人間がやっていたラバーダック法 機能名となっている「Rubber
macOS 26 TahoeのApple Intelligenceに利用されている3BパラメータのLLMをコマンドラインで利用できるようにするツール「apfel」がリリースされています。詳細は以下から。 Appleは同社の生成AIを利用したパーソナル人工知能システム「Apple Intelligence」をWWDC24で発表し、現在最新のmacOS 26 TahoeやiOS/iPadOS 26では開発者向けにもFoundationModelsフレームワークを通してAppleの生成AI/LLMが利用できるようになっていますが、 このApple Intelligenceにも利用されている3B(30億)パラメータのLLMを、コマンドラインから利用できるようにするコマンドラインツール「apfel」が新たに公開されています。 Apple Intelligence from the command l
2026/04/03 約12兆トークンの良質なコーパスで学習した新たな国産LLM「LLM-jp-4 8Bモデル」「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで公開 ~一部ベンチマークでGPT-4oやQwen3-8Bを上回る性能を達成~ 大学共同利用機関法人 情報・システム研究機構 国立情報学研究所 (NIIエヌアイアイ、所長:黒橋くろはし 禎夫さだお、東京都千代田区) 大規模言語モデル研究開発センター(LLMC)は、同センターが主宰するLLM研究開発コミュニティ「LLM-jp」の活動の中で大規模言語モデル(LLM)のフルスクラッチ学習を実施し、約86億パラメータ(*1)の「LLM-jp-4 8Bモデル」と約320億パラメータのMoEモデル(*2)「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで一般公開しました。公開モデルの学習では、オープンソー
こんにちは、AIチームの杉山です。 前回の記事ではFlairによる固有表現抽出を用いて個人情報のマスキングを行い、その精度を確認しました。 しかし、学習データを自分でアノテーションして作成する必要があることからデータ数を大量に用意することができず精度が今ひとつとなってしまいました。 そんな折、日本語自然言語処理オープンソースライブラリであるGiNZAのver.3.0.0(執筆時点での最新は3.1.2)がリリースされました。リリースノートを眺めていると、以下の記述が目に留まりました。 解析モデルの改良固有表現抽出モデルの訓練コーパスを GSK2014-A (2019) BCCWJ版(新聞系文書を除外)に変更固有表現抽出精度が再現性・適合性の両面で大きく向上token.ent_type_を関根の拡張固有表現階層のラベルに変更ginzaコマンド出力の最終フィールドにENE7属性を追加OntoNo
Sashiko (刺し子, literally "little stabs") is a form of decorative reinforcement stitching from Japan. Originally used to reinforce points of wear or to repair worn places or tears with patches, here it represents our mission to reinforce the Linux kernel through automated, intelligent patch review. Sashiko is an agentic Linux kernel code review system. It uses a set Linux kernel-specific prompts and
ソフトウェア開発におけるコードレビューは品質保証の要です。しかし、レビューの質はレビュアーの専門知識と集中力に大きく依存し、人間のレビューでは見落としが避けられません。 この課題に対して、Linuxカーネル開発コミュニティから生まれたのがSashikoです。 sashiko.dev 本記事では、Sashikoの仕組みを詳しく解説し、それをJavaScript/TypeScriptライブラリのレビュー向けにカスタマイズしたSashiko JSについて紹介します。 Sashikoとは何か? Sashiko(刺し子)は、Google社員のRoman Gushchin氏が開発したAIを用いたバグ発見システムです。特にLinuxカーネルのパッチをAIで自動レビューします。名前の由来は日本の伝統的な補修刺繍技法で、「布の弱い部分を補強する」という意味が、コードの脆弱な部分を見つけ出すという使命に重ねら
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く