並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 457件

新着順 人気順

ドキュメントの検索結果1 - 40 件 / 457件

  • MCP入門

    本記事は、最近話題のMCPの入門記事です。 MCP(Model Context Protocol)について、以下の4ステップで紹介します。 ざっくり理解する 使ってみる 深く理解する 作ってみる 初心者でも順番に読み進めれば、MCPについてざっと理解、かんたんな実装ができるようになることを目指します💪 ざっくり理解する MCPとは、ざっくり言うと、LLMアプリと外部サービスを連携するための統一されたインターフェース(プロトコル)です。 LLMアプリとは、ChatGPTやClaude、Cursorなど、LLMを使用するためアプリケーションを指します。(⚠️ GPT-4oやclaude-3-5-sonnetなどのLLM自体とは区別してください。) 初期のLLMアプリは、どこまでいってもすごく賢いチャットツールでしかなく、結局はテキストを返答することしかできませんでした。 そのため、LLMアプ

      MCP入門
    • エンジニアの調査タスクにはNotebookLMが最高!使い方とメリットまとめ

      みなさんは NotebookLM 使ってますか? 今までなにかの調査をするのに「DeepResearchが一番!」と思い使ってきたのですが、 NotebookLMを初めて使ってみて「NotebookLM、最高じゃん…」となりました。 具体的には、調査系のタスクをする上で下記の点が良かったです! ⭐️ 1度ソースをまとめると、疑問点が浮かんだときに何度も聞ける。 DeepResearchだと一度の調査に時間がかかる上、「この観点抜けてたな」と思い尋ねるとさらに時間がかかったりします…。 NotebookLMもはじめにソースをまとめる手間はありますが、一度まとめるとスムーズに疑問点を解消できます。 少し前に検索機能も追加され、より手軽にまとめられるようになりました。 DeepResearchの結果をソースとして使用するのも良さそうです。(※下部のコメントにて紹介いただきました!) ⭐️ ソース

        エンジニアの調査タスクにはNotebookLMが最高!使い方とメリットまとめ
      • 個人的 Vibe Coding のやりかた

        こんにちは、よしこです。 最近、個人的に欲しいツールをVibe Codingで作ることが増えてきたので、私の中で定着してきた進め方をまとめてみようかなと思いました。 ちなみに "Vibe Coding"(雰囲気コーディング)というのは、「人間が音声やテキストで指示を出し、AIが主体となってコードを書くコーディングスタイル」を指すワードです。 私もこのやりかたをするときはほとんどコード書いてません。 要件定義 まずは「何を作るのか」「ターゲットは誰か」「どんな機能が必要か」「画面構成はどうするか」などを決めます。好きなAIとチャットベースで喋りながらまとめていきます。 こっちが全然考えきってなくても、「◯◯なアプリ作りたいんだけど要件定義手伝ってー」から会話を始めれば必要な情報は向こうがヒアリングしてくれます。 ここはChatGPT 4oを使うことが多いです。トーンやノリが個人的な好みと合っ

          個人的 Vibe Coding のやりかた
        • 【C#】何故 C# を好むのか。~他の言語と比較しながら~ - ねののお庭。

          世の中には多くの C# に関する誤解が蔓延っています。 偏見にも満ちています。 そして技術的に正しい批判ではなく、根本的に技術的に誤った批判ばかりで正直悲しい。 技術的に正しい形の批判なら「お、そうだな。そしてそれの解決策はですねぇ...(ニヤニヤ)」となるのですが...。 そして C# 界隈から一歩出ると、「え、C# で作ってるの!?なんで??」とか言われる事が非常に多い始末。 C# 大好きマンとしては非常に嘆かわしい。 嘆かわしい限りなので、ここでなぜ C# を私が好むか、そして何故ソフトウェアの開発に向いているかを語りたいと思います。そして誤解が解けたら嬉しい。ついでに C# を書きたいと思ってくれたら嬉しい。 想定読者 前書きという名の予防線 事前知識: C# と .NET C# はパフォーマンスの高い言語 C# はビルドも高速 C# はオープンソースかつクロスプラットフォーム 言

            【C#】何故 C# を好むのか。~他の言語と比較しながら~ - ねののお庭。
          • プログラミング用途の生成AI関連ツールの評価 2025/04/14

            現時点で個人の感想です。流動的なので、明日にでも意見は変わってると思います。 モデル Claude-3.7-sonnet コーディング性能が圧倒的に良い。迷ったらとりあえずこれを使っておけばよい だいたい1ファイル1000行ぐらいが管理できる限界 Gemini 2.5 今なら無料で使える。今のうちに使い込んでクセを把握するといい。 巨大コンテキスト理解ができるので、「大量にコードを読んでちょっとだけコードを書く」つまり一般的な業務プログラミングに向いてる。 リリースから一週間は負荷が高くて不安定だったが、最近安定してきた さすがに単純なコーディング性能は Claude-3.7-sonnet に劣る deepseek-chat Cline で使うには遅すぎて役に立たない AIツール作るときの壁打ちに使っている。雑に巨大データ送りつけても安くて安心 コーディングエージェント/拡張 Cline

              プログラミング用途の生成AI関連ツールの評価 2025/04/14
            • 「叩き台」をつくるひとが組織を変える|うっしー

              突然ですが、エンジニアとしての成長を加速させる、ある「地味だけど超重要な力」について語らせてください。 それは… 「叩き台を作る力」です。 「叩き台?そんな簡単なこと?」と侮るなかれ「ちょっとした提案」「軽く書いてみた実装案」「とりあえずのREADME」 そう聞くと、なんとなく誰でもできそうに思えるかもしれません。 でも実は、この「最初の一歩を形にしてみる力」こそ、エンジニアとしての成長速度を劇的に上げるブースターになるのです。 そして、そういう「叩き台」を作ってくれる人がいるからこそ、チームは動き出せるし、より良いアイデアが生まれていく。 今日は、そんな叩き台を作る人たちへの感謝の気持ちを込めて、この習慣が持つ力を紹介させてください。 急成長しているエンジニアの共通点私はエンジニアリングマネージャーとして、多くのエンジニアの成長を間近で見てきました。 その中で強く感じるのが、成長している

                「叩き台」をつくるひとが組織を変える|うっしー
              • VS CodeのCopilotとCopilot Chatの機能と活用方法 | DevelopersIO

                VS CodeのCopilotとCopilot Chatを導入していてBusiness Planのシートを割り当てていただいているのですが、あまり活用できていなかったためどういった機能があるのか調査しました。 CopilotはGithub上で使えるCopilotやCLIから利用できるCopilotなどもありますが、ここではVS Code上から利用できるCopilotに焦点を当てています。 また拡張機能であるGitHub CopilotおよびCopilot Chatは事前にインストールされていることを前提としています。 Code completion これは使っているとすぐに気付ける、もうおなじみの機能といっても問題はず。 Control + Enter で他の候補も見ることができますが、自分はほとんど使ったことがありません。 また、Next Edit Suggestions(NES)という

                  VS CodeのCopilotとCopilot Chatの機能と活用方法 | DevelopersIO
                • 防御力の高い技術ブログを書こう - じゃあ、おうちで学べる

                  はじめに ある日のこと、私はもしくはあなたは思いつきました。そう、自分の考えを発信してみようと。それはまるで、小さな紙飛行機を窓から放り投げるような、どこまで飛ぶかわからない冒険でした。そんなわけで画面に向かい、キーボードを叩き始めたのですが、すぐに奇妙な不安が襲ってきたのです。 ほら、誰かがそっと後ろから覗き込んで「それ、間違ってるよ」とか「それって昔の話でしょ」なんて言ってくるかもしれない。もっと恐ろしいのは「もっといいやり方があるのに」という呪文めいた言葉です。そんな呪文を浴びせられたら、私はきっと透明人間になりたくなるに違いありません。 でも不思議なもので、そういう批判の声が聞こえてくるのは、実は自分の頭の中だったりするんですよね。まだ何も書いていないのに、もうすでに架空の批判者と対話している。ある意味、私たちは常に誰かと対話している生き物なのかもしれません。 そこで考えたのです。

                    防御力の高い技術ブログを書こう - じゃあ、おうちで学べる
                  • MCPサーバー自作入門

                    はじめに すでに日本語でも紹介記事が多数ありますが、私も MCP(Model Context Protocol)サーバーの開発を試してみたので備忘録として。 MCP の仕組みはともかくまずは作り方が知りたい!という方向けです。 MCP サーバー開発用の SDK は Python, Java, TypeScript など複数の言語をサポートしていますが、本記事ではTypeScript SDKを使用します。 また開発した MCP サーバーを利用する MCP クライアントにはCursorを使用します。 基本的に公式ドキュメントを参考にしています。 🙆‍♂️本記事で触れること TypeScript SDK を用いた MCP サーバーの実装方法 実装した MCP サーバーを Cursor で使用する方法 実装した MCP サーバーの配布(Publish)方法 デバッグ方法:Inspector の使

                      MCPサーバー自作入門
                    • Claude Desktopで爆速開発する

                      はじめに Anthropicが提供する「Claude Code」をMCP(Model Context Protocol)で活用した開発環境を構築について気づいたことをまとめました。特に本記事ではClaude DesktopとMCPを組み合わせた開発環境の構築方法と、実用例について紹介します。 結論から言うと、Claude Desktopでコード書くコスパも悪くないぞ、という話。 Desktop Appで?と思う人もいるかも知れないですが、その気持ちも分かる。でもいったん読んでほしい。 IntelliJとClineの現状 私はIntelliJユーザーなのですが、Clineにまだ対応しておらず、SNSで話題になっているようなAIの潮流に乗れていないように感じていました。2025年4月9日現在、GitHub上で対応についての議論は進行中ですが(GitHub Discussion #581)、実装

                        Claude Desktopで爆速開発する
                      • 情報収集が変わる! Gemini Deep Researchの可能性とカスタムGPTによる最適化|genkAIjokyo|ChatGPT/Claudeで論文作成と科研費申請

                        はじめにGoogleのGemini Advancedに搭載されたGemini2.5ProによるDeep Researchは、特に医療分野のような専門的な情報収集において、その高い能力が注目されています。GeminiのDeep ResearchはChatGPTなどの既存AIツールと比較して、参照する文献数の多さや情報処理の速度において優位性を示す一方で、生成されるレポートが冗長になったり、要点が掴みにくくなったりするという課題も感じます。この記事では、Gemini Deep Researchの性能と留意点を評価するとともに、日々の活用に役立つ基本的なTipsもご紹介しつつ、これらの課題を克服し、そのポテンシャルを最大限に引き出すためのカスタムGPTも紹介します。 Gemini Deep Researchの性能評価:ChatGPTとの比較AIによるリサーチ支援ツールとして、ChatGPT のD

                          情報収集が変わる! Gemini Deep Researchの可能性とカスタムGPTによる最適化|genkAIjokyo|ChatGPT/Claudeで論文作成と科研費申請
                        • Cline時代のエディタ戦争🧨(Cursor vs Windsurf vs ClineからJetbrains, Vimまで)

                          Cline、良いですよね。Zennでも散々擦られているように、結局万能ではないのですが、AIの未来というものがかなり身近になった感じがします。 そこで起こるのが、「結局どれ使えばええねん」問題。WindsurfとCursorの具体的な機能比較がなかなか無かったり、VSCode系が語られがちすぎて他(JetBrains系やVimなど)のエディタ環境でのAIエコシステムというのもなかなか情報がありません。 それで色々リサーチしてみたので、備忘録がてらに記事を書いてみました(ほぼ自分用なので、内容の濃淡がすごいのは御愛嬌...)。 全部は自分で触れておらず、RedditやXでの評判も参考にしています。多くは無料トライアルなどもあるので、試してみてください! VSCode系 コーディングAIの開発競争の場はVSCodeの拡張機能がメインストリームになっています。 Github Copilot, C

                            Cline時代のエディタ戦争🧨(Cursor vs Windsurf vs ClineからJetbrains, Vimまで)
                          • オレオレ RAG をさくっと作る

                            この記事は間違いが含まれている可能性があります。 もともと自社のドキュメントでは Meilisearch で日本語全文検索を実現していましたが、ドキュメントに質問できるようしたいと思い、簡単な RAG を作りたい!と思っていました。 色々調べたところなんとなくこんな感じでできそうというのが見えてきました。 とりあえず、ドキュメントを分割し、ベクトル化してベクトルデータベースに突っ込んで、質問をベクトル化して結果を引っ張り、それを LLM に食べさせて解説させるというのができればよいということがわかりました。 そこでまずはベクトルデータベースを探したのですが、普段からよく使っている DuckDB に VSS (Vector Similarity Search for DuckDB) という拡張があることがわかり、OpenAI Embeddings API を使って試すことにしました。 自社の

                              オレオレ RAG をさくっと作る
                            • MCP + DB > RAG?

                              RAGの限界性 RAG、つまり検索強化生成(Retrieval-Augmented Generation)は、現在の大規模言語モデル分野における注目の方向性です。これは情報検索技術と生成モデルを組み合わせ、大規模モデルの知識の正確性、文脈理解、最新情報の活用などの課題を解決します。 でも追加の知識をRAGを通じて導入するだけで、モデルがそれらの知識関連の質問に完璧に対応できると考えています。しかし実際と想像にはギャップがあり、実際に試してみると、RAGの精度はそれほど良くないことに気づくかもしれません。 RAG自体の技術的原理から見ると、現在以下の問題が存在します: 検索精度の不足:まず、RAGの最も核心的な部分は、知識を「ベクトル」に変換し、「ベクトルデータベース」に導入し、ユーザーの入力情報も「ベクトル」に変換してから、ベクトルデータベースから類似の「ベクトル」をマッチングさせ、最後に

                                MCP + DB > RAG?
                              • 【エンジニアの日常】これが私の推しツール!〜日々の開発を豊かにするおすすめツール〜 Part3 - Findy Tech Blog

                                こんにちは。Findy Tech Blog編集長の高橋(@Taka_bow)です。 この記事はこれが私の推しツール!シリーズの第3弾になります。今回も、推しツール紹介と題して、弊社エンジニア達が日々の開発業務で愛用しているツールやOSSを紹介していきます。 トップバッターは奥田さんです! ■ 奥田さん / PdM室 / GenAIイネーブルメント ■ データサイエンティストのだーさん (@Dakuon_Findy) です。2025年の1月よりファインディのプロダクトマネジメント室 GenAIイネーブルメントチームにデータサイエンティストとして参画しております。このチームでは、LLMを活用した各種プロダクトの強化や、社内オペレーションの改善に取り組んでいます。 Polars (Pythonライブラリ) Polarsの概要 Polarsは、高速かつ明示的なスキーマ定義を特長とするデータフレーム

                                  【エンジニアの日常】これが私の推しツール!〜日々の開発を豊かにするおすすめツール〜 Part3 - Findy Tech Blog
                                • 「php-fpm がリクエスト処理する仕組みを追う」を PHPerKaigi 2025 で発表しました - Shin x Blog

                                  2025/03/21-23 に中野セントラルパークカンファレンスで開催された PHPerKaigi 2025 にて、「php-fpm がリクエスト処理する仕組みを追う」を発表してきました。 発表資料 AI ツールの活用 事前確認 登壇サポート さいごに 発表資料 php-fpm が FastCGI リクエストを処理する仕組みを gdb によるステップ実行デモを中心にお話ししました。 gdb を使ったデモは概ね好評だったようで、仕組みを知ることの楽しさが共有できて嬉しかったです。技術の楽しさを共有できるのはこうしたイベントの良さの一つですね。構想段階ではデモは一部のみにして、スライドによる解説をメインにしようと思っていたのですが、紆余曲折を経てデモをメインにすることにしました。デモは見る側としても面白いですし、やっていても楽しいです。その場の状況に応じて臨機応変に対応しやすいのも良いですね。

                                    「php-fpm がリクエスト処理する仕組みを追う」を PHPerKaigi 2025 で発表しました - Shin x Blog
                                  • AWS障害が発生したアベイラビリティーゾーン「apne1-az4」ってどこ?

                                    はじめに 日本時間で4/15の夕方頃にAWS障害が東京リージョンで発生しました。影響確認の為ににAWS Health Dashboardを読んでいました。 しかし、1行目から疑問が生じました。 午後 4:40 から午後 5:43 (日本時間) の間、AP-NORTHEAST-1 リージョンの単一のアベイラビリティーゾーン (apne1-az4) において、一部の EC2 インスタンスへの接続の問題が発生しました。 👀「apne1-az4ってどこだろう?東京リージョンのAZってaとcとdの3つではなかったっけ?結局影響を受けたリソースはどれなの?」 ということでapne1-az4が何者なのか調べてみました。 結論 まずは、結論から。 普段使っているap-northeast-1aは論理的なAZ名であり、一方でapne1-az4は物理的な場所を指すAZ IDに該当する。 AZ名とAZ IDは、

                                      AWS障害が発生したアベイラビリティーゾーン「apne1-az4」ってどこ?
                                    • プロダクトマネジメント業務をCursorで爆速プロトタイピングしてみた🔥 ~PRD作成・PRDレビュー・プレスリリース作成・プレモーテム|Takuya Asako

                                      プロダクトマネジメント業務をCursorで爆速プロトタイピングしてみた🔥 ~PRD作成・PRDレビュー・プレスリリース作成・プレモーテム エンジニア以外の職種にもだいぶ使われるようになってきたCursor、僕もキャッチアップせねば…と思い、「プロダクトマネージャーとして何ができると業務が効率化されるか?質が上がるか?」という命題のもと、施策の立ち上がりを爆速にするためのプロトタイプを作成してみました。 まだ磨き込み中 & 現在育休中につき実務での運用ができていない状況なのですが、まずは自分の考えていることと、それを実現するためのチャレンジを発信する試みをしてみます。 🚀 課題感・実現したいこと生成AIは、自動化・要約などインプットの高速化・情報整理・アイディア出し・ナレッジ検索・データ分析・プロトタイプ作成・意思決定支援…などなど、さまざまな用途で業務効率向上に活用できます。 今回は「

                                        プロダクトマネジメント業務をCursorで爆速プロトタイピングしてみた🔥 ~PRD作成・PRDレビュー・プレスリリース作成・プレモーテム|Takuya Asako
                                      • Perplexityの公式MCPサーバがリリースされてたので試してみた | DevelopersIO

                                        AI検索エンジンであるPerplexirtyのAPI(Sonar API)のドキュメントをチェックしていたところ、公式MCPサーバの記事を見つけました。 Githubのリポジトリはこちらです。 ということで、Claude Desktopに連携させて試してみました。 また、MCPサーバで提供するツールによって複数のPerplexityのモデルを利用できるので、それぞれで出力を試した結果も掲載します。モデルごとの出力の差に興味がある方もぜひご参考にしてください。 どんなことができるのか Perplexityが提供するAPIである"Sonar API"を用いて、プロンプトで渡した情報について調べた結果を返してくれます。 Sonar APIでは利用できるモデルがいくつかありますが、この公式MCPサーバではツールによってモデルを切り替えることができるようになってます。 具体的には、2025年4月時点

                                          Perplexityの公式MCPサーバがリリースされてたので試してみた | DevelopersIO
                                        • IntelliJ IDEAを使っている人は全員Junieを導入しよう!

                                          はじめに こんにちは、株式会社スマートラウンドでチーフテックリードをしているtsukakei1012です。 ついに、JetBrains製のAIコーディングエージェントであるJunieがGenerally Availableになりました🎉 弊社では、EAP(Early Access Program)の頃から開発チーム全体で導入・活用していることもあり、既にいくつかの知見が蓄積されています。 この記事では、新たにJunieを導入しよう・してみたいと考えている方に向けた参考資料になればいいと思い、書きましたのでぜひご参考にしてみてください! (ちなみに料金体系などの違いは下の記事によくまとまっています!) ちょっとした宣伝 弊社は創業期からKtorを活用したサーバーサイドKotlinでプロダクト開発を行っており、Server-Side Kotlin Meetup(以下、SSKMと呼びます。)の

                                            IntelliJ IDEAを使っている人は全員Junieを導入しよう!
                                          • Ubie の SWE 3 人で、『デザインシステムをMCPサーバー化したらUI実装が爆速になった』の話を深掘る|oliva

                                            gurichanとolivaは、プロダクト「症状検索エンジン ユビー」を開発するソフトウェアエンジニア(今回のMCPサーバーの利用者)です。 sosukeは、アプリケーション基盤チームのソフトウェアエンジニア(今回のMCPサーバーの提供者)として、開発者体験の向上に取り組んでいます。 症状検索エンジンユビーのご利用はこちらから! はじめに:話題の「MCPサーバー化」とは?oliva: みなさん、お昼時にご参加をいただきありがとうございます。本日司会を務める Ubie の oliva です。Ubie では症状検索エンジン ユビーの開発を担当しています。 本日は、gurichanが執筆した記事「社内デザインシステムをMCPサーバー化したらUI実装が爆速になった」について、記事の背景や詳細、質問への回答などをお届けします。 まずは自己紹介をお願いします。 gurichan: Ubieでアプリケー

                                              Ubie の SWE 3 人で、『デザインシステムをMCPサーバー化したらUI実装が爆速になった』の話を深掘る|oliva
                                            • LLMを活用した商品検索タグ自動生成とRecall改善の取り組み(BigQuery × Gemini) - 10X Product Blog

                                              はじめに 課題:情報不足による検索ヒット率の低さ 施策:LLMによる検索タグの自動生成と活用 なぜタグ生成か? 設計 JANコード単位での生成と管理 タグデータの更新について タグ生成の品質とリスク プロジェクトの進め方 1. PoC:タグ自動生成の実現可能性と品質検証 2. インデキシングの実装 3. 商品検索ロジックの評価とプロンプトチューニング 4. 検索ロジックの修正と本番リリース 5. 本番リリース後の効果測定 おわりに はじめに こんにちは、10Xで検索推薦の機能・基盤の開発運用を担当している安達(id:kotaroooo0)です。 10Xでは小売チェーン向けECプラットフォームStailerにおいて、商品検索機能ではElasticsearchを利用しており、主にテキストマッチングによって検索を実現しています。 今回、LLMを活用して商品検索タグ(以下、タグ)を自動生成し、検索

                                                LLMを活用した商品検索タグ自動生成とRecall改善の取り組み(BigQuery × Gemini) - 10X Product Blog
                                              • uv on Docker をやっている

                                                $ docker compose watch app $ docker compose exec app bash $ root@393b1996df7c:/app# uv run hello Bytecode compiled 1 file in 39ms # Hello World 前書き 以前、uv on Dockerをやっているという記事を投稿しました。 この時点では、「使ってみた程度」のレベルで投稿していたのですが、定期的にアクセスが来ています。今見ると色々修正したい部分があるので新しく書き直すことにしました。 ※ 本記事ではuvとは何か、uvコマンドの使い方は解説しません。GitHubのドキュメント貼るので読んでみてください。 Dockerfile 次は、開発用コンテナの設定です。(のちに本番に有効な設定を紹介します) FROM ghcr.io/astral-sh/uv:pyt

                                                  uv on Docker をやっている
                                                • OpenAI Codex CLIの仕組み

                                                  OpenAIからCodex CLIというOSSがリリースされました。Codex CLIは、Claude Codeのようなコマンドラインで利用するコーディングエージェントのTUIツールです。Node.jsで実装されており、使用しているnpmパッケージからして構造はClaude Codeと類似していますが、設計に違いがあります。 GitHub - openai/codex: Lightweight coding agent that runs in your terminalLightweight coding agent that runs in your terminal - openai/codexGitHubopenaiOpenAI Codex CLIの概要あなたは、OpenAIによって構築されたターミナルベースのエージェント型コーディングアシスタントであるCodex CLIとして、そ

                                                    OpenAI Codex CLIの仕組み
                                                  • アプリケーションアーキテクチャをいい感じに検証し続けたい話 - CADDi Tech Blog

                                                    こんにちは、Drawer Growthグループ ソフトウェアエンジニアの内田(id:usadamasa, @usadamasa)です。弊社ではApache Icebergの活用*1とともに、一部のアプリケーションにJavaを導入しています。今回は、システムアーキテクチャから一段レイヤを下げてアプリケーションレベルのお話しをしたいと思います。 アプリケーションアーキテクチャの設計と運用課題 アプリケーション開発において、私たちエンジニアは通常、パッケージ構成やレイヤの依存関係、ロギングなどの観点からアーキテクチャを設計します。 しかし、実装との不整合やチーム内での共通認識が不十分なまま進むと、品質課題として潜在化し、やがて本番障害や開発者の疲弊といった形で問題に発展します。また、DevinやClineなどのAIエージェントに適切に実装してもらうにはプロンプトやドキュメントで設計を伝える必要が

                                                      アプリケーションアーキテクチャをいい感じに検証し続けたい話 - CADDi Tech Blog
                                                    • AIコーディングエージェントで異なるプログラミング言語間での移植ができるか試してみた - ぱいぱいにっき

                                                      アメリカの方で政府機関のコードをCOBOLから他の言語にするみたいなことをやる不確かな噂がありますが、それとは全く関係がない話です。もっともっと規模が小さいやつ。使ったのはCline(Claude 3.7 Sonnet)です。以下、AIとはClineのことを指します。 やってみたのはTypeScriptのライブラリからGoへの移植。対象は、https://github.com/mizchi/readability 。 zenn.dev とはいえこちらもWIPとあるように、まだやりきれてない箇所があるので、本家の https://github.com/mozilla/readability を元にした方が良かったかもしれない。ただ書き直されていると言う点や、元コードからAIで整理されていると言う点はポーティングに有利だったかもしれない。 なんでreadabilityをGoに移植したかと言う説

                                                        AIコーディングエージェントで異なるプログラミング言語間での移植ができるか試してみた - ぱいぱいにっき
                                                      • AWS Lambda MCP Serverを試してみた | DevelopersIO

                                                        大阪オフィスの小倉です。 AWSのMCPサーバに、AWS Lambda MCP ServerとAWS Diagram MCP Serverが追加されていました。 今回はLambda MCP Serverを試してみました。 AWS Lambda MCP Server 以下の図によると、MCPクライアントとLambda関数のブリッジとなる、と記載されています。 (https://github.com/awslabs/mcp/blob/main/src/lambda-mcp-server/README.md より引用) それでは、以下のドキュメントに従って試していきます AWS Lambda MCP Server - AWS MCP Servers まず、lambda-mcp-server内のexamplesディレクトリの中に、サンプルとなるLambda関数のコードが格納されているので、AWS

                                                          AWS Lambda MCP Serverを試してみた | DevelopersIO
                                                        • 食べログの予約システム × 外部連携の裏側 〜開発・運用のリアル〜 - Tabelog Tech Blog

                                                          こんにちは! 食べログカンパニー 飲食店プロダクト開発部の稲葉・南野です! 我々は食べログの予約システムと、外部システムとの連携に関する開発・運用をする業務を担当しています。 今回は外部システム連携に携わってきた二人の視点から、「食べログの予約システムにおける外部システム間連携」についてご紹介します! 目次 目次 はじめに 食べログの予約システムにおける外部連携 なぜ食べログの予約システムで外部連携をするのか? 飲食店側のメリット 食べログの予約システム側のメリット 食べログで実現している外部連携について 外部連携の開発における苦労・注意ポイント 調整編 相互の業務の理解が必要 ユビキタス言語の策定が必要 開発文化の違い コミュニケーションコスト 開発編 データ構造の違い 疎通可能な開発環境の整備 データの持ち方の責任 依存関係 セキュリティ観点(認証・認可やAPIレートリミット) エラー

                                                            食べログの予約システム × 外部連携の裏側 〜開発・運用のリアル〜 - Tabelog Tech Blog
                                                          • Amazon RDSの監査ログを保全する信頼性の高いソフトウェアの設計と実装について - Pepabo Tech Portal

                                                            はじめに 背景 信頼性 監査プロセス コスト 要件 機能要件 非機能要件 設計 システムの構成要素 なぜECSを選んだのか 監査ログ保全における適切なリソース管理 私達のユースケースに合わせたオブジェクトキー 実装と検証を繰り返しフィードバックループをまわす ログが途中で途切れる 並行運用 転送量のコスト増加 ECS Fargateのキャパシティ不足 ログの整合性をチェック ログローテーションサイズの変更 オンコールドキュメントを作成 成果 Future Works まとめ harukin drumato はじめに こんにちは。技術部技術基盤グループのharukin,drumatoです。 カラーミーでは従来Data Firehose(旧Kinesis Data Firehose)を用いて、Amazon RDSの監査ログをS3に保存する仕組みを運用していました。 しかし、運用していく中で継続

                                                              Amazon RDSの監査ログを保全する信頼性の高いソフトウェアの設計と実装について - Pepabo Tech Portal
                                                            • システムアーキテクチャから考えるAIエージェント時代のSaaSの可能性

                                                              はじめに 自己紹介 株式会社ナレッジワークVP of Engineeringの@hidekです。 CTOのmayahを支えながら、Engineeringチーム全体のマネジメントをやっています。 また、AI Integrationグループという社内のAIを支えるチームのマネージャーも兼任しています。 「SaaS is dead」 昨年末から「SaaS is Dead」という刺激的なフレーズが注目を集めました。しかし、これはすでに語られている通り、文字通りにSaaSが消滅するという意味ではありません。むしろ、従来の単一機能・単一領域のSaaSが次の段階へと進化していることを表現したキャッチフレーズと捉えています。これまでユーザーがブラウザやアプリのUIを直接操作していたSaaSが、AIとの統合により、より高度で複合的なサービスへと進化しているのです。 最新のSaaSでは、LLMなどのAIを活用

                                                                システムアーキテクチャから考えるAIエージェント時代のSaaSの可能性
                                                              • GitHub ActionsでAI呼び出し - Mitsuyuki.Shiiba

                                                                すごく久しぶりにブログを書く。3ヶ月ぶりくらい? ↓この記事を読んで「へー。どういうこと?」ってなったので遊んでみた。 「GITHUB_TOKEN でGitHub Modelsを呼び出せるようになったよ!PAT(Personal Access Tokens)はもう使わなくていいよ!」って書いてある。そもそもGitHub Modelsを知らんかったけど、GitHub Copilotとかで使ってるAIのモデルたちのことかな。 やってみた GitHub ActionsでAIの呼び出しができるよってことだろうなと思って適当に作ってみた。「今日の運勢を教えて!」って投げるだけのGitHub Actions。 「今日は新しいことにチャレンジする絶好の日!」ふむふむー。 コード github.com name: GitHub Models API Example on: workflow_dispatc

                                                                  GitHub ActionsでAI呼び出し - Mitsuyuki.Shiiba
                                                                • 新Linuxカーネル解読室 - タスクスケジューラ (その2) - EEVDF - VA Linux エンジニアブログ

                                                                  「Linuxカーネル2.6解読室」(以降、旧版)出版後、Linuxには多くの機能が追加され、エンタープライズ領域をはじめとする様々な場所で使われるようになりました。 それに伴いコードが肥大かつ複雑化し、多くのエンジニアにとって解読不能なブラックボックスとなっています。 世界中のトップエンジニア達の傑作であるLinuxカーネルにメスを入れ、ブラックボックスをこじ開けて、時に好奇心の赴くままにカーネルの世界を解読する「新Linuxカーネル解読室」プロジェクト。 本稿では、(その1)に引き続き、カーネルv6.8におけるタスクスケジューラの仕組みや実装について解説したいと思います。 はじめに 3. どのタスクをどの程度実行するか 3.1 FAIR(EEVDF) 3.1.1 概要 3.1.2 cfs_rq構造体とsched_entity構造体 3.1.3 V 3.1.4 enqueue 3.1.5

                                                                    新Linuxカーネル解読室 - タスクスケジューラ (その2) - EEVDF - VA Linux エンジニアブログ
                                                                  • RAGで文書を圧縮して速度を5倍にする手法

                                                                    導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。 今回は、取得したドキュメントを圧縮することでLLMの生成速度を最大5倍高速化する手法「OSCAR」について紹介します。速度はもちろん、入力するデータ自体も小さくできるので費用も抑えることができるようになっています。 サマリー RAGは必要な情報を収集して、その情報を元に回答を生成する機能をもっていますが、多くの場合で無関係な情報を含めてLLMに渡します。これにより、LLMへの入力トークンが増加してしまい、文章の生成が完了するまでの速度と料金がより多くかかることになります。 今回紹介する「OSCAR」はLLMに渡す文章を「圧縮」することで入力トークンを抑え、かかる時間と料金を抑えることができます。加えて、精度についてもそのままLLMに検索結果を渡す場合と比べて同程度の精度を実現しています。 問題意識 大量の文章を追加することの悪影響

                                                                      RAGで文書を圧縮して速度を5倍にする手法
                                                                    • プロジェクトのデプロイ方法をKamalに移行しました - ESM アジャイル事業部 開発者ブログ

                                                                      こんにちは!maimuです。 私が参加しているプロジェクトでは、複数のRailsアプリケーションが稼働しています。デプロイの方法として Docker Compose で対応をしていましたが、夜間にデプロイ作業をする必要があり、毎回タイミングの調整作業が発生していたため、ゼロダウンタイムでデプロイが可能なKamalに移行することになりました。 Kamal でデプロイを実行する場合、Rails アプリケーションのデータベースに SQLite を利用していたり、その他のミドルウェアを必要としない場合は設定ファイルは初期設定を少し編集するのみで対応ができます。 しかし、実際にサービスとして利用されているアプリケーションの多くは構成がもっと複雑であり、Kamal の設定においても状況に応じて考慮すべき点が変わっていきます。 今回のデプロイ方法の移行を通じて学んだ Kamal の設定部分に焦点を当てて

                                                                        プロジェクトのデプロイ方法をKamalに移行しました - ESM アジャイル事業部 開発者ブログ
                                                                      • MCP は大きな問題を抱えている?導入前に検討すべき課題と知っておくべきセキュリティリスク

                                                                        はじめに こんにちは。クラウドエースの荒木です。 AI と外部システムの連携を標準化する Model Context Protocol (MCP) が、2024 年後半に Anthropic 社から発表されて以来 [1]、界隈では大きな注目を集めています。AI が様々なツールやリソースへ簡単にアクセスできるようになる「AI のための USB-C」というコンセプトは非常に魅力的です。実際に MCP に対応する Cursor や Zed といった開発ツールやさまざまな MCP サーバーなどが登場したことでエコシステムは着実に広がり、盛り上がりを見せています。私も以前、MCP の基本的な仕組みや将来性について解説する記事を書きましたが、思っていたよりも大きな反響がありました。 しかし、実際に MCP に触れたり関連情報を追っていく中で、課題も見えてきました。特に、前回良い面を中心に紹介した手前、

                                                                          MCP は大きな問題を抱えている?導入前に検討すべき課題と知っておくべきセキュリティリスク
                                                                        • うさぎでもわかるGPT-4.1 - 他のGPTモデルとの違いを徹底解説

                                                                          はじめに こんにちは、みなさん!OpenAIが2025年4月に発表した最新モデル「GPT-4.1」について聞いたことはありますか?🐰 「GPT-4oとの違いがよくわからないよ〜」 「たくさんバリエーションがあって選び方がわからないんだモフ」 そんな声が聞こえてきそうですね。今回はGPT-4.1について、特に以前のモデルと比べて何が変わったのか、どんな特徴があるのかをうさぎでもわかるように解説していきます! この記事を読めば、GPT-4.1の3つのバリエーション(GPT-4.1、GPT-4.1 mini、GPT-4.1 nano)の違いや、どのようなシーンで使うのが最適なのかがわかるようになりますよ。さあ、一緒に最新のAIモデルの世界を探検していきましょう! GPT-4.1の概要と基本情報 GPT-4.1とは何か GPT-4.1は、OpenAIが2025年4月14日に発表した最新の言語モデ

                                                                            うさぎでもわかるGPT-4.1 - 他のGPTモデルとの違いを徹底解説
                                                                          • Notionで手軽にMarkdownを読み書きできるMCPサーバー「NotionMCP Light」を作りました

                                                                            はじめに 最近話題のModel Context Protocol(MCP)は外部システムやAPIとAI(LLM)を接続する重要な橋渡し役となっています。MCPに関しては同僚の李さんが素晴らしい記事を書いてくださいましたので、MCP自体の概要に関しては以下記事参照ください。 私自身も、MCPには興味を持っていて、いろいろなMCPサーバを試しています。詳しくはModel Context Protocol (MCP) サーバを使ってみた・作ってみたを参照ください。 そのような中、先日Notion 公式MCPサーバが公開され話題になっていました。私は、プライベートでも仕事でもNotionを愛用しているので、早速公式のガイドを参考にセットアップしてみました。 ただ、Notionの公式ガイドでも以下のように言及されていますが、Markdown形式のドキュメントをNotionに書き込んだり、逆に読み込ん

                                                                              Notionで手軽にMarkdownを読み書きできるMCPサーバー「NotionMCP Light」を作りました
                                                                            • デザイナーMCP入門:Cursor × Figma × Notionでレビュー効率化|Hiroaki Sasaki(minto🍀) | Designer

                                                                              デザインレビュー、みなさんのチームでも実施されていると思いますが、結構労力がかかりますよね? そこで、今話題のMCPを導入してデザインレビューを効率化する方法はないか考えてみました。 非エンジニアでもCursorからFigmaとNotionのMCPを活用して、今すぐにでも試せる事例を集めましたので、是非見ていただきたいです! 想定環境以下のようなプロダクト開発体制を対象とした事例を紹介します。 デザイン:Figma 主な用途 UIデザイン デザインシステム タスク管理:Notion 主な用途 PRD(要求定義書) プロダクトバックログ UXライティングガイドライン 上記環境に今回はCursorを使用して、デザインシステムやPRDをもとにしたデザインレビューを効率化します。 なぜCursorなのか?デザインのアウトプットに対してサクッと壁打ちしてもらうだけならClaudeなどでも問題ないです

                                                                                デザイナーMCP入門:Cursor × Figma × Notionでレビュー効率化|Hiroaki Sasaki(minto🍀) | Designer
                                                                              • OpenAIが発表した新モデル「GPT-4.1」を試すも、“Gの影”がチラついてしまった

                                                                                OpenAIが発表した新モデル「GPT-4.1」を試すも、“Gの影”がチラついてしまった2025.04.15 23:3029,409 かみやまたくみ 2025年4月15日、OpenAIが3つの新AIモデル「GPT-4.1」「GPT-4.1 mini」「GPT-4.1 nano」を発表しました。 ・いずれのモデルもこれまでの同系統モデルよりも性能向上。特にコーディングの能力とユーザーの指示に従う能力が伸びた ・コンテキストウィンドウが大幅に増加、最大100万トークンに。格段に長いコンテキスト(文脈)を理解できるように ・どのモデルも費用対効果の高さを意識。賢さはアップしつつ、価格感が調整された いずれのモデルもAPIのみで利用可(ChatGPT上で使えるわけではない)ですが、昨今、非エンジニアでもAPIを利用する方が増えてるような印象があります。自分もそうなっていて、今後OpenAI API

                                                                                  OpenAIが発表した新モデル「GPT-4.1」を試すも、“Gの影”がチラついてしまった
                                                                                • 統合GraphQL Gatewayとtsoaで作る、バクラク新REST API基盤 - LayerX エンジニアブログ

                                                                                  バクラク事業部のAPIチームでソフトウェアエンジニアをしている @anashi です。 私たちのチームは、バクラクと外部システムとの連携を可能にするためのREST APIを開発・提供しています。 このAPIを使えば、例えば会計システムやERP、ZapierのようなiPaaS、各種ファイルストレージなど、お客様が利用されている様々なシステムとバクラクを連携させ、より組織に最適化された業務フローをデザインすることが可能になります(具体的な連携イメージに興味がある方は、ぜひ以下の記事もご覧ください!)。 note.com さて、バクラクでREST APIを提供するのは今回が初めてではありません。以前にも、パートナー様向けにREST APIを構築した経験があります。 tech.layerx.co.jp LayerXには「Be Animal」や「技術をまず試す」という行動指針・文化があり、それは日々

                                                                                    統合GraphQL Gatewayとtsoaで作る、バクラク新REST API基盤 - LayerX エンジニアブログ