サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
セキュリティ
zenn.dev/aircloset
みなさまこんにちは!エアークローゼットでCTOをしている辻です。 前回の記事で全社DBを自然言語で横断検索できるMCPサーバーを紹介し、社内MCP群の全体像もお見せしました。今回はその中で「Biz Graph」と一言で紹介していたものを深掘りします。 施策と KPI の関係をグラフ構造で表現し、「あの施策、効果あったの?」に AI が答えられるようにした話です。 なぜ Graph RAG なのか AI をより活用するために重要なのは、データの羅列ではなくデータの関係性を伝えることです。 データ量がそこまで多くなければ NotebookLM のようなツールで十分に成果が出せます。しかし、ビジネスデータすべてをコンテキストに入れることは不可能です。施策の報告資料、KPI スプレッドシート、マーケの週報、物流の日次実績 — これらを全部まとめてプロンプトに突っ込むことはできない。 そのため、現状
zenn.dev/tan_go238
はじめに:AIで無双できると思っていた時期がありました 最近、AIを使ったコーディングがすっかり当たり前になってきました。 AIに指示を出せばコードが組み上がり、開発効率が飛躍的に上がると感じています。 私自身も、要件定義から実装まで一気通貫でAIに任せる開発スタイルを試してきた結論を先にお伝えします。 本記事では、AI開発における「順調だったフェーズ」と「崩壊したフェーズ」、そしてそこから導き出した解決策について、順を追って整理します。 AIツール連携で「最強の布陣」が完成した きっかけは、kiro や spec-kit の登場と「仕様駆動開発」への取り組みでした。 AIによって実装が自動化されるのであれば、ボトルネックは「何を作るか」、すなわち要件定義にあると考えました。 しかし、kiroやspec-kit では、構造化された仕様は生成されるものの、量が多くなることで「最終的に何ができ
zenn.dev/intage_tech
本記事の3行サマリ 勉強会トピック選定の戦略:重要×非緊急、かつ組織課題と技術トレンドを紐付けてトピック選定。 知識定着のための仕掛け:輪読会(知識習得)からハンズオン(実践)へ段階的に移行。予習復習会や振り返り会も導入して知識の定着をフォロー。 1年後の成果:社内ナレッジページ投稿数が2記事から15記事へ急増。参加者も実務への活用実感や技術の面白さを体感。 はじめに こんにちは。株式会社インテージの石渡です。 多くの方が年度初めを迎える4月。新入社員を迎える、新しいプロジェクトが始まる、異動先で全く新しい業務を始める、などで新たな知識の普及やキャッチアップが必要になる時期ではないでしょうか。 本記事では、私が約1年前に行ったデータモデリングの輪読会とハンズオン研修の企画・運営過程に加え、現在に至るまで少しずつ出てきた成果について紹介します。 「どうすれば勉強会や研修の内容を実務へ活かして
zenn.dev/aeyesec
1. はじめに こんにちは!はるぷです!サプライチェーン攻撃の対策してますか?? 最近、サプライチェーン攻撃の話題が出るたび、「うちのサービスは本当に大丈夫だろうか」と社内がざわつくことはありませんか。依存ライブラリの棚卸しやSBOM整備に取り組んでいても、入り口が多すぎて全体を把握するのは至難の業です。 加えて、社内外から「サプライチェーン攻撃対策大丈夫ですよね?」と聞かれたとき、担当者として胸がキューっとなる辛い状態になりがちです。何かしらビシッと説明できるシステム的な一手が欲しい…。 そこで今回は、 「万が一、侵入を許してしまった後の早期発見」 に特化した対策を紹介します。 サプライチェーン攻撃によって不正コードが混入すると、多くの場合、外部のC&Cサーバ(攻撃者の司令塔)と通信を開始します。つまり、この「意図しない外向きの通信」をいち早くキャッチできれば、被害が拡大する前に食い止め
zenn.dev/higakijin
こんにちは、フリーランスとして働いてるハルクです 最近自分の会社を立ち上げたことで、「AI時代にフィットしたwebフレームワークとは何か」を考えるようになりました。 私はRubyでコンピューターサイエンスの世界に入ってから、最近流行りのTypescript(Next.js, Nuxt.js)、Go、Rustなどを使ってサイドプロジェクトを立ち上げてきましたが、 結局のところ、RubyやRuby on Railsが最も自分のユースケースにフィットすることがわかりました。 そして、その評価は、AIコーディングが発達してきた2026年においても変わりません。 今回は、私がなぜAI時代にRubyを使い続けると判断したのかを説明したいと思います。 なお、私は自分の会社で始める今後全てのビジネスにRailsを使う予定です。そういったある意味「Rails信者の目線」の一つとして捉えてもらえればと思います
zenn.dev/ncdc
はじめに この記事では、GitHub Copilotが組織として導入・管理しやすい理由を、主にClaude Codeと比較しながら、管理者の目線で説明します。 はじめに白状しておくと、私は現在GitHub Copilotを使っていません。ClaudeのTeamプランでClaude Codeが使えるようになったとき、1日で社内稟議を通して即導入しました。そのままClaudeに移行して、自分の分のGitHub Copilotは解約しています。会社全体としては両方使える状態にしつつ、個人としてはClaude Codeに完全移行した形です。 それでも、組織として開発者にAIコーディング支援ツールを導入するという文脈では、GitHub Copilotに明確な優位性があると思っています。 開発者の方には刺さらないかもしれませんが、「なぜうちの会社はGitHub Copilotしか使えないのか?」と思っ
zenn.dev/karaage0703
最近、DGX Spark上でローカルLLMをどれだけ使えるかという実験をしています。 ローカルLLM、単純におしゃべりをさせたり、単一の作業をさせるだけなら、使える場面も増えてきたのですが、Claude CodeやCodexみたいに、スキルを使って汎用的に様々な作業をさせようとすると、うまくいかないことが多いです(自分のユースケースでは)。 なんか、もうちょっとうまくできないかなーと考えてみたのが、トリガーという機能です。 言ってしまえば、簡易版のスキルでtriggersディレクトリにシェルスクリプトを置くだけで、LLMが使えるカスタムツールを追加できるというものです。スキルほどの柔軟性はないですが、ローカルLLMでもある程度柔軟に機能を追加する仕組みが考えられないかなと思い考えたものです。 スキルとツールユースの中間みたいなものって、ありそうで(調べた限りでは)なかったので名前をつけてみ
zenn.dev/shunya_sudo
これらが24時間、macOS上で動いています。PCを閉じない限り止まりません。 全体のアーキテクチャはこうです: ポイントは、Claude CLIを「考えるパーツ」として使っていること。データの取得・加工はPythonで行い、「この情報をどう要約するか」「このメールは返信が必要か」といった判断だけをClaudeに任せています。 カテゴリ別: 何を自動化したか 1. メール処理(最も効果が大きかった) Before: 1日3回、3つのメールアカウント(個人・大学・就活用)を開いて確認。返信を書くのに30分〜1時間。 After: 10分ごとにGmail APIで全アカウントのメールを取得。AIが4段階に分類。 具体例: 教授からの「明日のミーティングの件」→ reply判定 → カレンダーから空き時間を取得して返信下書きを生成 学会からのCFP通知 → see判定 → Slackに1行通知
zenn.dev/structnote
SRE+DevOps×AIで運用改善するとき 生成AIを運用改善に導入と組み込む話題になると、「AIが自動で調べて自動で直してくれてなんでも対応してもらえる世界」「人が思うことを具現化してすべてを自律的に実現する運用システム」で想像しがちです。本当に重要なのは、そこではないと考えています。 ※実現可否は除いて理想像や将来像は必要です。 先に考えるべきなのは、かなり地味です。 アラートをどう受けるのか(重複・遅延・順序逆転、欠損/ロスト/ドロップする・・) どの情報を根拠として扱うのか(ドキュメントが乱立、構成と設定が一致しない) 誰が承認するのか(監査や社内ガバナンス対応、工事/接続承認ルールなど) 実行してよい範囲はどこまでか(設定取得、定型の設定変更~再起動や停止まで) 失敗したらどう止めるのか(AI対応で想定外事象が起きた時、被害拡大/二次被害拡大時に防げるのか) どの手順で戻すのか
zenn.dev/bilzard
このブログについて 40%キーボードのHold&Tap判定に機械学習モデルを導入してみたという話です。 Tap & Holdとは? Tap&Holdというのは、1つのキーに2つのキーの役割を割り当てる機能です。 40%キーボードのようにキー数の少ないキーボードのスペース効率を高めることができる画期的な機能です。 具体的には、ちょい押しなら普通のキー、長押しなら修飾キー(またはレイヤ切り替え)といったように、ボタンを押す長さで二つのキーを判別する仕組みになっています。 このルールが基本ですが、人間は機械のように正確な動きはできないので、ホールドのつもりで押したのにタップと判定される、あるいは逆のタイプミス(誤爆)が頻発するので、他にもルールベースの対応がいくつか考案されてきた経緯があります。 ルールベースの例としては、例えばHold on other key pressという機能があります。
zenn.dev/mizchi
AI の技術記事は食傷気味なんですが、さすがにこれは効くと思ったパターンを見つけたので紹介します。 tl;dr プロンプト (skill / slash command) を書いた直後は「これで伝わるはず!」と思うのに、別のセッションで使うと暗黙知が不足していて、再現性がなくなる 思い込みは当人に修正できないバイアスなので、別の AI に実際にやらせて詰まった箇所をレポートさせる これを繰り返す。プロンプトが段階的に洗練される (TDD のテストと同じ位置づけ) 実際に手元 8 個の skill で試して、初稿 50 点が (AI 主観で) 80〜90 点まで上がった。ただし、モデルを変えての評価してないので、過剰に適応している可能性はある。 自分が書いたプロンプトを評価していますか? 自分は大学時代に暗黙知の研究をしていたのだが、世の人々は主観バイアスを過小評価している。また、AIは人間
zenn.dev/catatsuy
Let’s Encryptの短期証明書は、90日証明書の延長くらいの感覚で入るとかなり厳しいです。 サブドメインを含む複数の証明書を短い間隔で発行・更新する構成では、証明書発行まわりのレート制限に引っかかりやすくなります。短期証明書では更新回数が増えるので、その影響がかなり表面化しやすくなります。 まずステージング環境で試した方がよい 開発やテストでは、本番ではなくステージング環境を使った方がよいです。本番と同じ種類の挙動をかなり緩い制限で試せるので、証明書の切り方や更新方法を確認する段階では先にこちらを使う方が安全です。 環境 ACME directory URL 短期証明書はレート制限に当たりやすい 短期証明書は有効期限が160時間しかなく、Let’s Encryptは3日ごとの更新を勧めています。90日証明書より更新回数が大きく増えるので、レート制限に当たりやすくなります。 特に厳し
zenn.dev/kotaroikeda
「Repository は interface にするもの」 自分も最初は素直にそう信じていました。 クリーンアーキテクチャや DDD を学ぶと、Repository はインターフェースで定義して、実装を分けて、DI で注入する構成がきれいに見えます。実際、その設計がしっかりハマる場面はあります。 ただ、実務を重ねるほど、「毎回そこまでやるのが本当に最適なのか?」という疑問も出てきました。 特に小〜中規模の開発では、将来の拡張性のために入れた抽象化が、今の開発速度やコード理解のしやすさをむしろ下げることがあります。この記事では、クリーンアーキテクチャを否定するのではなく、Repository のインターフェース化は常に正義ではないという話を、現場感ベースで整理してみます。 よくある構成 まずは、よくある Repository 構成です。Go でもかなり見かけます。 repository に
zenn.dev/solvio
はじめに 「AI音声、もう人間と区別つかなくないですか?」 最近ナレーション動画やポッドキャストを聴いていて、そう感じる場面が一気に増えました。 2026年4月16日、Google Cloudから Gemini 3.1 Flash TTS のプレビュー版が公開されました。70を超える言語、30種類のプリセット音声、そして200以上の「オーディオタグ」 で囁き・叫び・笑い・ため息までテキストの中で自在に指示できるという、音声合成の世界をまた一段引き上げるモデルです。 せっかくなので、実際にPythonから叩いて 旧モデル (Gemini 2.5 Flash TTS) と聴き比べ してみました。 本記事では、 技術者の方 には、google-genai SDK でのAPI呼び出し方法と、マルチスピーカー / オーディオタグの実装コード そうでない方 には、YouTubeにアップした音声サンプル
zenn.dev/kenimo49
Claude Codeを使い始めた頃の自分へ あなたは今、Claude Codeに失望しかけています。 この1年で私はGitHub Copilot、Cursor、Claude Code、Codexと渡り歩いてきました。他にもいくつか試しています。どのツールでも最初の2週間は同じパターンにはまりました。「この機能を実装して」と打つ。コードが出てくる。動かしてみる。なんか違う。修正を頼む。また違う。自分で書き直す。気づけば夕方。 いろいろ触った末にClaude Codeに落ち着きましたが、最初はこのツールでも同じでした。1日8時間のうち、生成コードをそのまま使えたのは せいぜい3割 。残り7割は手戻りと「いや、そうじゃなくて...」の繰り返しです。 「AIペアプログラミングの未来が来た」と意気込んでいた割に、素朴にVSCodeで書いていた頃と生産性が変わりません。むしろ「AIに指示を出す」とい
RAGを入れたのに答えられない質問 社内ドキュメント数百ページをベクトルDBに入れ、RAGを構築し、「これで社内ナレッジ検索は完璧だ」と思っていた時期が私にもありました。 実際、個別の事実を聞く分には動きます。「有給の申請手順は?」「AWSのリージョン選定基準は?」--こういう質問にはきちんと答えが返ってくる。 問題は、こういう質問を投げたときです。 「過去1年の障害報告書に共通するパターンは?」 「プロジェクトAとプロジェクトBで使われている技術スタックの違いは?」 「このデータセット全体のテーマを3つにまとめて」 返ってくるのは、どれか1つの文書チャンクに書いてある断片的な答えだけ。10個の報告書を横断して「共通パターン」を見つけるような回答は出てきません。 最初は「プロンプトが悪いのかな」と思って2週間チューニングしていました。temperature下げたり、チャンクサイズ変えたり、
zenn.dev/aiforall
🎯 この記事のゴール 【対象読者】 Difyを導入したものの、チャットの枠を超えた「実業務」への組み込みに苦戦している方 Googleの各サービスをAIの「拡張パーツ」として使い倒したいエンジニア・リーダー 【得られる成果】 実現したい要件に直結する3つの技術選定基準 セキュリティと運用性を両立した、2026年基準のシステム構成案 LLMアプリケーション開発プラットフォームとして不動の地位を築いた「Dify」 しかし、その真価は単なるチャットUIにとどまりません。GoogleカレンダーやGmail、Driveといった「既存業務の基盤」と繋がった瞬間に、圧倒的な価値を発揮します。 この記事では、Googleの各種サービスと連携させることで、Difyを単なる「相談相手」から「自律して動く相棒(エージェント)」に変えるための、3つの最適解を解説します。 1. 【Action】GCP (Clou
zenn.dev/forcia_tech
エンジニアの吉田です。 フォルシアにはdevゼミという文化があり、エンジニアが講師となって自身の詳しい分野に関する講義やハンズオンを行っています。 私もこれまでに何度かSQLチューニングを題材としたdevゼミを開講してきましたが、いずれもこちらが一方的に話すという形式に終始しており、実際に受講者が手を動かせる形式での講義も望まれていました。 色々とやり方を模索した結果、コンテスト形式で実際にPostgreSQLのチューニングを行ってもらう、という形の講義を行うことになりました。コンテスト形式での実施にあたりいろいろと工夫した点や学びがあったので、以下にそれらをまとめます。 SQLチューニングをハンズオンすることの難しさ これまでインプット中心の講義を行っていたのは、ひとえに SQLチューニングをハンズオン形式で実施することのハードルが高かった からです。 過去に社内でも何度かチューニングコ
zenn.dev/headwaters
では、これらをどのように実装すればいいのでしょうか? 1. タスクの管理 タスクの管理は、実は超簡単です。 GitHub Copilotのツールに、todoというものがあります。 エージェントがこのツールを使える状況であれば、勝手に自分のタスクを分解・管理してくれます。 その上、VSCode ChatのUI上にtodoリストが表示されるので、ユーザもタスクの進捗を簡単に確認できます。 2. 細かい確認 これも同様に、ツールを利用します。 GitHub Copilotのツールに、vscode/askQuestionsというものがあります。 これは、エージェントがユーザに質問するためのツールです。 質問をVSCodeのUI上に表示し、ユーザに回答してもらうことができます。 選択肢を提示したり、自由記入させたりでき、基本的にはどんな質問でも可能です。 しかし、エージェントがこのツールを使える状況
はじめに 最近はAIを使った自立開発の流れが加速していて、Zennでも「仕様駆動開発」とか「ハーネスエンジニアリング」とか、皆さんそれぞれAIを使った開発スタイルを布教する記事が増えてきましたね。 でもみんながみんなそんな高度なAI活用術をすぐに実践できるわけじゃないし、そもそもGithub Copilot Chatの基本的な機能を使いこなせていない人も多いんじゃないかなと思います。 そこで今回は、Github Copilot Chatを最大限に活用するためのToolsの基礎知識を紹介します。 カスタムエージェントやエージェントスキルで高度なAI活用術を実践する前に、まずはToolsの基礎をしっかり押さえておきましょう。 Toolsを理解しよう Skillsは嫌というほど記事があるので、皆さん多少理解していますよね? でもToolsに関しては、あまり知らない人も多いんじゃないでしょうか。
zenn.dev/peoplex_blog
はじめに AI コーディングエージェントに「Figma のデザイン通りに作って」と頼むと、それっぽい見た目はすぐに出てきます。ただ、出来上がったコードをよく見ると── デザイントークンを無視してハードコードされた色やフォントサイズ 「Figma では同じコンポーネント」なのに、コードでは別物として再実装されている 1 つの画面をまとめて AI に渡してしまい、生成されるコードが巨大化して収拾がつかない といった手戻りのある実装になりがちです。 これらはプロンプトの工夫だけで改善するのは難しいと感じています。Figma 側のファイル構造・MCP の呼び出し手順・コンポーネント再利用の仕組み・検証フローまで含めて仕組みで担保しないと、AI の出力は安定しません。 Figma と Anthropic はそれぞれ Figma MCP 公式ガイド と Claude Code ベストプラクティス とし
zenn.dev/gemcook
前回の記事では:focus-visibleによるフォーカスインジケーターのカスタマイズ、カラーコントラスト、visually-hiddenパターンについて紹介しました。 今回はその続編として、CSSを用いたアクセシビリティ対応のポイントをさらに3つ紹介します。 prefers-contrastを使ったハイコントラストモード対応 みなさんはOSの「コントラストを上げる」設定を使ったことはありますか? 前回の記事ではCSSで色を定義する際にコントラスト比を確保する方法を紹介しましたが、今回はユーザーがOS側でコントラストの設定を変更した場合に、CSSでその設定を検知してスタイルを調整する方法を紹介します。 視力の弱いユーザーや色覚特性のあるユーザーの中には、OS側でハイコントラストモードを有効にしている方がいます。 prefers-contrastメディア特性を利用すると、その設定を検知してW
zenn.dev/seeda_yuto
TL;DR PrismMLの1-bit LLM「Bonsai-8B」(1.07GB) をRTX 4080 (16GB) に 8プロセス同時起動 できた 1台で260 tok/s、8台同時リクエストでも全台が2秒以内に応答 アンサンブル推論(7台で回答→1台で統合)を試したが、精度は +1.7pp でほぼ誤差 ファンアウト検索(質問分解→並列深掘り→統合)は構造化に強いがコンテキスト制約がボトルネック 「精度向上」より「1枚のGPUで8並列サービング」が本当の価値 きっかけ:「アンサンブルできるのでは?」 LLMの精度を上げる手法として「複数のモデルに同じ質問を投げて多数決を取る」アンサンブル推論がある。論文では有効性が示されているが、実際に試すには同じモデルを何台も同時に動かす必要がある。 通常の8Bモデル(Q4_K_M量子化)は1台で約5GBのVRAMを使う。RTX 4080の16GBで
zenn.dev/dsgarage
FastMCPで始めるMCPサーバー開発 — Pythonデコレータ3行でAIにツールを渡す 概要 Claude Code や Cursor で「MCP サーバー」を日常的に使っている。だが MCP とは何か、MCP サーバーとは何か、そして FastMCP はどこに位置するのか — この3つの関係を正確に説明できるだろうか? MCP を「プロトコル」、MCP サーバーを「そのプロトコルに準拠したプログラム」、そして FastMCP を「MCP サーバーを高速に構築するためのフレームワーク」と整理すると、全体像がクリアになる。Web 開発に例えれば、HTTP がプロトコル、Web サーバーが実装、Flask/FastAPI がフレームワーク — その関係と同じだ。 本記事ではまず MCP・MCPサーバー・FastMCP の違いを明確にした上で、FastMCP 3.x の全体像を解説する。3
はじめまして 株式会社インテージの桝田です。 いわゆるデータサイエンティストとして、普段は広告効果測定や時系列データ分析の業務を行っています。 業務外では統計学・マーケティングサイエンスの研究活動も行っています。(牛の歩みですが) データ分析について考える 時は2014年! 一般社団法人データサイエンティスト協会は、データサイエンティストに求められるスキルセットとして「ビジネス力」「データエンジニアリング力」「データサイエンス力」の三つを定義しました。 それから現在、10年以上が経過しました。AIの台頭など我々を取り巻く環境は大きく変化したものの、これら三つのスキルが重要であるというのは疑いのない事実かと思います。 (なお、2025年12月にスキルチェックリストver.6が公開されています) 私は大学・大学院時代にベイズ統計学を研究しており、逆にIT周りは詳しくありませんでした。 しかし当
zenn.dev/koukyo
サブスクを棚卸ししてみた 先月、クレジットカードの明細を眺めていて、ふと気になった。毎月引き落とされているサブスクリプション、全部ちゃんと使っているのか? Notion、iCloud+、GitHub Copilot、Spotify……ひとつひとつは大した額ではないが、積み重なると月5,000円を超えていた。全部を見直す気力はなかったが、一番「本当にこのプランが必要か?」と引っかかったのがNotionだった。Plusプランで月額約2,000円。 Notionは良いツールだと思う。ただ、使い続けるうちにページが増えて、どこに何を書いたか自分でも把握しきれなくなっていた。データベース機能もたまに使っていたが、量が増えるとレスポンスが重い。n8nと繋いで自動化も試みたが、API経由で挙動が安定しないことがあり、結局やめてしまった。 Notionが悪いのではなく、自分の使い方に対してツールが大きすぎ
zenn.dev/akasara
はじめに 2026年4月17日(米時間金曜)、Anthropicが Claude Design を research preview として発表 自然言語でプロトタイプ・スライド・モックアップ・LPを作れる、Claude Opus 4.7ベースの新機能 競合は Figma Make / v0 / Lovable / Bolt / Google Stitch / Gamma / Canva 発表前後で Figma -6% / Wix -4.7% / Adobe -2.7% / GoDaddy -3% と市場は結構まじめに反応 「Webデザイナー・フロントエンドの仕事が丸ごと消える」のではなく、「初稿を作る工程」と「単純なUI実装」から先に溶ける、というのが現時点での実際的な読み 普段はClaude CodeやAIツール周りの記事を書くことが多いのですが、今回は界隈としてインパクトが大きかった
はじめに みなさん、Claude Code使っていますでしょうか? 2026年4月14日にClaude Codeのデスクトップアプリが全面リデザインされ、マルチセッション対応やRoutinesなど大幅なアップデートが入りました。 自分は普段CLIでClaude Codeを使い倒しているのですが、今回のDesktop版リデザインを実際に触ってみて「これはCLIと使い分けた方がいいな」と感じる場面がいくつかありました。 本記事では、普段CLIを使っている方に向けてDesktop版で何ができるようになったのか、そしてCLIとどう使い分けるのが良いかを実体験ベースでまとめます。 想定読者 Claude Code CLIを日常的に使用している方 Desktop版を普段触っていないが、アップデートを機に気になった方 CLIとDesktopでの違いが知りたい方 今回のDesktopリデザインの背景 20
zenn.dev/nttdata_tech
設計書・コード・テストを全部AIに書かせて半年間開発してみたよ 1. はじめに 本記事は、私のチームが半年間AIネイティブ開発を行った経験とその感想をまとめたものです。 AIネイティブ開発とは、AI技術を活用してソフトウェア開発を行うことを指します。2025/10~2026/3の期間中、私たちはお客様に納品するシステムをAIネイティブで開発しました。その経験と私なりに感じたことをまとめてみました。 ※ なお、私の取組は全社的な取組とは関係ありません。 ※ あくまで、私のチームが独自に行っている取組ですので、その点はご留意ください。 2. 自己紹介 初めてテックブログに記事を書くので、簡単な自己紹介を。 名前:茂呂範(もろすすむ) 所属:株式会社NTTデータ 第三公共事業本部 デジタルソサエティ事業部 プロジェクト推進担当(参照) 立場:様々なシステムの基盤構築、基盤維持運用を担当している組
次のページ
このページを最初にブックマークしてみませんか?
『Zenn|エンジニアのための情報共有コミュニティ』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く