並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 49件

新着順 人気順

gemini api function calling pythonの検索結果1 - 40 件 / 49件

  • AIエージェント自作のための基礎知識 - 誰かの役に立てばいいブログ

    世は大 AI 時代ということで、調べ事や開発に様々な AI を利用するようになりました。 AI 失業だの SaaS is dead だのと騒がしいですが、そういうのは今日は置いておきます。 AI を使うのも良いですけど、せっかくソフトウェアエンジニアをやっているのですから、自分で作ってみるのもいいですよね。 結論から先に書いておくと、AIエージェントも今どきは簡単に自作できるようになっています。 この記事では Google 製の Agent Development Kit (ADK) を使いますが、何を使うにせよ、そもそも AI エージェントがどう動いているか理解しておかないと効率が悪いです。 それだって AI に聞けば出てくる、、わけですが、まあ人間が要点をまとめた記事にもまだ五円くらいは価値があるかなってことでまとめてみました。 ... お察しの通り、AI に指示して書かせたわけですけ

      AIエージェント自作のための基礎知識 - 誰かの役に立てばいいブログ
    • AI Agentフレームワークを使うべきなのか?

      こちらはLayerX AI エージェントブログリレー41日目の記事です。 こんにちは、CEO室でAI Agent開発のPdMをしているKenta Watanabeです。 AI Agent開発に取り組んでいる方や自分用の効率化ツールを開発したりしてLLMで遊んでいる方は何かしらのAgentフレームワークを利用されている方が多いのではないかと思います。LayerXでもAI SDKなどのフレームワークが社内で利用されています。本日はAgent開発の試行錯誤を通して得られたAgentフレームワーク選びの参考になるような考え方を紹介できればと思います。 Agentフレームワーク戦国時代 ここ数年はAgentフレームワーク戦国時代と言えるほどたくさんのフレームワークやSDKが開発され利用されているのではないかと思います。各LLM ProviderはLLMを利用するためのHTTP EndpointとSD

        AI Agentフレームワークを使うべきなのか?
      • プロンプトインジェクション対策: 様々な攻撃パターンから学ぶセキュリティのリスク - GMO Flatt Security Blog

        はじめに こんにちは、GMO Flatt Security株式会社セキュリティエンジニアの石川(@ryusei_ishika)です。 近年、ChatGPT や Gemini などの大規模言語モデル(LLM)をはじめとする生成 AI の活用が急速に進んでいます。その一方で、これらの AI モデルに対する新たな攻撃手法である「プロンプトインジェクション」が注目を集めており、そのセキュリティリスクが問題視されています。 この記事では、プロンプトインジェクションが実際にどのような脅威となり得るのか、具体的な事例を交えながらそのリアルなセキュリティリスクを解説します。さらに、開発者や経営者が取るべき具体的な対策についても、分かりやすくご紹介します。 また、GMO Flatt Securityは日本初のセキュリティ診断AIエージェント「Takumi」や、LLMを活用したアプリケーションに対する脆弱性診

          プロンプトインジェクション対策: 様々な攻撃パターンから学ぶセキュリティのリスク - GMO Flatt Security Blog
        • 歴代チャットボットと最近のLLMのまとめ - Qiita

          Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? LLMs The History of Chatbots ELIZA (1966) 初期の人工知能プログラムのひとつ。 ルールベースの簡単なパターンマッチングで返答していた。 心理療法士の会話を模したELIZA(DOCTOR)が有名。 PARRY (1972) PARRYは偏執病的統合失調症患者をシミュレートしようとしたもの。 ELIZA(DOCTOR)と通信し話題となった。 Jabberwacky (1982, 1988, 1997) ユーモラスな人間同士の自然な会話をシミュレートすることを目的としていた。 ユーザーとの会話の大規模な

            歴代チャットボットと最近のLLMのまとめ - Qiita
          • LLMガードレールの活用法と役割を正しく理解する - GMO Flatt Security Blog

            TL;DR LLMガードレールはLLMの入出力を監視・制御する技術であり、LLMアプリケーションにおける様々な脅威への対抗策になります。しかし、あくまで役割は脅威の緩和・低減であるため、それぞれの脅威に対する根本的な対策をした上で、万が一の事故に備え文字通りガードレールとして導入する必要があります。 本文中では、RAGアプリケーションの利用する外部データベースにプロンプトインジェクションを引き起こすデータが存在し、LLMに対する入力として利用された場合、LLMガードレールで検知する例を紹介しています。しかし、根本的には外部データベースに悪意あるデータが登録されないよう対策すべきです。 このブログではLLMガードレールで対応できる脅威を実際に検証しながら整理し、適切なユースケースを議論します。 はじめに こんにちは、GMO Flatt Security株式会社所属のセキュリティエンジニア滝上

              LLMガードレールの活用法と役割を正しく理解する - GMO Flatt Security Blog
            • Google I/O の発表まとめ

              tl;dr Google I/O 2025 でたくさんのサービスや機能が発表されたよ イベントに合わせて公開されたものはすべてひと通りまとめたよ 発表だけでまだ使うことのできないサービスも多いよ(アメリカ限定も多い) しばらく追記していくよ これはなに? Google I/O 2025 の発表をまとめたもの。開発者向けに限らず、よくばって発表内容をおおよそ網羅した(書きかけのため予定)ので、気になるところだけ読んでください。発表内容が豪勢で、悲しいかな、徹夜をしてしまったので、せっかくなのでみなさんの時短になれば&自分の覚え書きとしてまとめています。少しでも参考になれば幸いです。 こちらに今回の発表に関わる全 27 記事が一覧になっており、それらの中から押さえておくべき記事をかいつまんで簡潔にまとめます。 発表動画(Keynote)について 計約三時間の実況中継。場所はマウンテンビューの

                Google I/O の発表まとめ
              • Coding Agentについてのまとめ (2026年1月)

                LLMによるコード補完の登場 (2021年) GitHub Copilotの登場 我々がよく知るLLMによる支援はまず GitHub Copilot から始まりました。これはGPT-3 (OpenAI Codex, 現在のCodexと名前が同じで本当にややこしい) をベースとしたコード補完システムで、タイピングをしていると自動的にその行の続きを予測してくれるものです autocompleteとの違い それ以前にもIntelliSenseのようなautocompleteがありましたし、より進歩したn-gramなどを用いたものはありましたが、LLMをベースとしたものはTabnine (Tabnineは初期はn-gramモデル) やCopilotからとなります チャットベースのコードアシストの時代 (2022-2023年) ChatGPTの登場 ChatGPT以降、チャットによる対話形式でコード

                  Coding Agentについてのまとめ (2026年1月)
                • 生成AIのプロンプトエンジニアリング

                  生成AIの活用が進む中で注目される、プロンプトエンジニアリングの包括的な解説書。精度が高く望ましい出力を生成AIから引き出すためにどうすべきか、GPT-3以降の知見をもとに、LLMや画像生成モデルに共通する原則と実践手法を体系化しています。原則の解説はもとより、ハルシネーション対策や出力の安定化、評価の視点など、現場で役立つ実践的な内容を多数収録。生成AIのツール群を使いこなす際に押さえるべき知識を広くカバーしています。Jupyter NotebookやGoogle Colab上で実際にサンプルコードを動かしながら学び進めることができ、最終章では、それまで学んだ知識をもとに実際に生成AIを活用したアプリケーションを構築します。 2025年7月更新 ■P.80-81 【誤】 # 応答のモック fake_responses = [ """ - item: Apple Slices quanti

                    生成AIのプロンプトエンジニアリング
                  • GitHub - modelcontextprotocol/servers: Model Context Protocol Servers

                    Official integrations are maintained by companies building production ready MCP servers for their platforms. 21st.dev Magic - Create crafted UI components inspired by the best 21st.dev design engineers. 2slides - An MCP server that provides tools to convert content into slides/PPT/presentation or generate slides/PPT/presentation with user intention. ActionKit by Paragon - Connect to 130+ SaaS inte

                      GitHub - modelcontextprotocol/servers: Model Context Protocol Servers
                    • 【マルチエージェント徹底入門】Agent Development Kit ではじめるマルチエージェント開発

                      2025/06/07 追記 ADK のバージョンを 1.2.1 にアップデートしました。 2025/06/20 追記 ADK のバージョンを 1.4.1 にアップデートしました。 はじめに Agent Development Kit(ADK)には、複数のエージェントが連携するマルチエージェントを手軽に実装する機能があります。ただし、マルチエージェントを利用する際は、ユースケースに応じて、「複数のエージェントがどのように役割分担するのか」というシステム構成、言い換えると、マルチエージェントのアーキテクチャーを適切に選択する必要があります。 この記事では、ADK が提供する「サブエージェント(Subagent)」と「エージェント・アズ・ア・ツール(Agent-as-a-Tool)」の機能比較を通して、マルチエージェントの基本となるアーキテクチャーを学びます。 ツールの仕組みの復習 この記事のメ

                        【マルチエージェント徹底入門】Agent Development Kit ではじめるマルチエージェント開発
                      • Go + クリーンアーキテクチャで AI エージェント基盤を再設計した話【前編】

                        AIエージェントの開発を一気に行っていたのでそのまとめとなる記事を書いてみようと思います。 エージェント開発のSDKやノーコードツールは充実してきていますが、MVPとしてバックエンドとして使ってる Go でライブラリなどをあまり使わず開発を進めた結果、ほぼ自前で実装することになったので一からのAIエージェント開発ということで参考になるかと思います。 1. はじめに:なぜ Go で AI エージェント基盤を作るのか AI エージェントの実装といえば、一般には Python が選ばれます。 LangChain / LangGraph や LlamaIndex など、強力なエージェントフレームワークのサポートが充実しているからです。 ではなぜ筆者は、Go で、しかも(ほぼ)自前の AI エージェント基盤を一から構築したのか? その理由は以下の 3 点に集約されます。 既存のバックエンドが Go

                          Go + クリーンアーキテクチャで AI エージェント基盤を再設計した話【前編】
                        • GPT-5、開発に使うための基礎知識  ——ワンショットでのフロントエンド開発の各モデル比較も | gihyo.jp

                          なお、Artificial Analysisを参照すると、包括的に確認できて便利です。 新しいパラメータや振る舞い GPT-5では出力の文量やツール呼び出しの形、出力制約を直接コントロールするための追加パラメータとツールが公開されています。 verbosity:出力される文章の長さを調節するパラメータ 指定できる値:low / medium / high reasoning_effort:思考の深さを調整するパラメータ 指定できる値:minimal / low / medium / high ※以前もありましたが、新しくminimalが追加されました。 Free‑Form Function Calling:JSONではなく任意テキストをツールに渡せる Python/SQL/シェルなど、そのまま実行系へ流せます CFG (Context‑Free Grammar)[1]:形式を指定して出力を

                            GPT-5、開発に使うための基礎知識  ——ワンショットでのフロントエンド開発の各モデル比較も | gihyo.jp
                          • How I Use Every Claude Code Feature

                            I use Claude Code. A lot. As a hobbyist, I run it in a VM several times a week on side projects, often with --dangerously-skip-permissions to vibe code whatever idea is on my mind. Professionally, part of my team builds the AI-IDE rules and tooling for our engineering team that consumes several billion tokens per month just for codegen. The CLI agent space is getting crowded and between Claude Cod

                              How I Use Every Claude Code Feature
                            • 型安全かつシンプルなAgentフレームワーク「PydanticAI」の実装を解剖する - ABEJA Tech Blog

                              はじめに こちらはABEJAアドベントカレンダー2024 12日目の記事です。 こんにちは、ABEJAでデータサイエンティストをしている坂元です。最近はLLMでアプローチしようとしていたことがよくよく検証してみるとLLMでは難しいことが分かり急遽CVのあらゆるモデルとレガシーな画像処理をこれでもかというくらい詰め込んだパイプラインを実装することになった案件を経験して、LLMでは難しそうなことをLLM以外のアプローチでこなせるだけの引き出しとスキルはDSとしてやはり身に付けておくべきだなと思うなどしています(LLMにやらせようとしていることは大抵難しいことなので切り替えはそこそこ大変)。 とはいうものの、Agentの普及によってより複雑かつ高度な推論も出来るようになってきています。弊社の社内外のプロジェクト状況を見ていても最近では単純なRAG案件は減りつつあり、計画からアクションの実行、結果

                                型安全かつシンプルなAgentフレームワーク「PydanticAI」の実装を解剖する - ABEJA Tech Blog
                              • SaaSのためのAIエージェント開発: GeminiとMCP(Streamable HTTP)で作るシンプルなRAGアプリケーション - MNTSQ Techブログ

                                こんにちは、MNTSQでアルゴリズムエンジニアをやっている平田です。 MNTSQではAIで企業の契約業務を変革するプロダクトを開発しています。 mntsq.co.jp ところでみなさん、MCP(Model Context Protocol)使っていますか? 2024年11月にAnthropicがMCPを提唱してから半年しか経っていないのに、MCPを取り巻くAIエージェント開発のエコシステムは爆発的なスピードで成長を遂げています。 (実際、この記事を書いている最中にアップデートがあって、何度か書き直しています🫠) 先日MCPがStreamable HTTPをサポートしたため、MNTSQでも自社プロダクトへのMCP導入を検討し始めました。 Streamable HTTPではサーバーをステートレスにできるので、アーキテクチャがシンプルになり、水平スケーリングが容易になります。これはMNTSQの

                                  SaaSのためのAIエージェント開発: GeminiとMCP(Streamable HTTP)で作るシンプルなRAGアプリケーション - MNTSQ Techブログ
                                • TypeScript 向けの AI フレームワーク TanStack AI を試してみた

                                  TanStack AI は TanStack チームが開発する TypeScript 向けの軽量な AI フレームワークです。LLM プロバイダーのインターフェイスを抽象化し、ツール呼び出しやチャット機能を提供します。この記事では TanStack AI の概要と基本的な使い方を紹介します。 AI エージェントの開発をする上で LLM の API 呼び出しを抽象化してくれるフレームワークは欠かせないものと言えるでしょう。OpenAI や Anthropic などの主要な LLM プロバイダーはそれぞれ公式 SDK を提供していますが、それぞれ異なるインターフェイスを提供しているため複数の LLM モデルを切り替えながら開発する場合には煩雑さが増してしまいます。 この差異を吸収してくれるフレームワークとして TypeScript なら AI SDK、Python なら LangChain が

                                    TypeScript 向けの AI フレームワーク TanStack AI を試してみた
                                  • AIエージェント × MCP × スプレッドシートで寝ている間に仕事をしてくれる「小人のくつ屋さん」を実現する - Qiita

                                    グリム兄弟の「小人のくつ屋さん」を聞いたことがあるだろう。寝静まった真夜中に不思議な小人たちが靴を仕上げてくれる童話だ。 最近話題のAIエージェントとPlaywright MCP(ブラウザ操作MCP)は、自然言語による指示に基づき、あたかも人間に頼んだかのように自律的にブラウザを操作してくれる。 例えば先日、AIエージェントがブラウザを操作し、ヒューリスティックなUX診断を行う例が話題になっていた。 Playwright MCP を使ってAIにUXを評価してもらう #githubcopilot - Qiita このようなAIエージェントによるブラウザ操作とGoogleスプレッドシートとw連携し、何らかのテーマで多数のサイトやページを横断的に調査するバッチ処理に仕立ててみよう。すると調査対象リストをシートに書いておけば、寝ている間にAIエージェントが働いてシートを埋めてくれる。「小人の調べ屋

                                      AIエージェント × MCP × スプレッドシートで寝ている間に仕事をしてくれる「小人のくつ屋さん」を実現する - Qiita
                                    • A Guide to Claude Code 2.0 and getting better at using coding agents

                                      Table of Contents Intro Why I wrote this post The Map is not the territory This post will help you keep up in general Lore time - My Love and Hate relationship with Anthropic Timeline My Codex era Anthropic Redemption Arc + Regaining mandate of heaven Why Opus 4.5 feels goooood This post is not sponsored Pointers for the technically-lite The Evolution of Claude Code Quality of life improvements in

                                        A Guide to Claude Code 2.0 and getting better at using coding agents
                                      • 【インターンレポート】OpenAI Agents SDK (Python版) でコールセンター風音声対話型マルチエージェントデモを作ってみた(おまけ付き) - Insight Edge Tech Blog

                                        目次 【インターンレポート】OpenAI Agents SDK (Python版) でコールセンター風音声対話型マルチエージェントデモを作ってみた(おまけ付き) はじめに 1.AIエージェント✖️音声 = 音声エージェント 1.1 普及してきたAIエージェントについて 1.2 音声エージェントの恩恵について考える 1.3 リアルタイム音声対話API・音声エージェント開発ツールの紹介 2. OpenAI Agents SDK (Python版)で作る音声対話型マルチエージェントツール 2.1 OpenAI Agents SDKとは 2.2 2種類の音声エージェントの構造 2.3 デモの紹介 2.4 今後の展望 おわりに 参考資料 はじめに こんにちは!!! Insight Edgeでアルバイトをしております、東京科学大学大学院 修士2年の田中です。大学院では、経営工学系の研究室で、サッカーの

                                          【インターンレポート】OpenAI Agents SDK (Python版) でコールセンター風音声対話型マルチエージェントデモを作ってみた(おまけ付き) - Insight Edge Tech Blog
                                        • GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.

                                          Servers for accessing many apps and tools through a single MCP server. 1mcp/agent 📇 ☁️ 🏠 🍎 🪟 🐧 - A unified Model Context Protocol server implementation that aggregates multiple MCP servers into one. tadas-github/a2asearch-mcp 📇 ☁️ - MCP server to search 4,800+ MCP servers, AI agents, CLI tools and agent skills. Install: npx -y a2asearch-mcp. Ask Claude: "Find MCP servers for database access"

                                            GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.
                                          • AIエージェントは何から取り組む?社内取り組み紹介

                                            こんにちは!AIソリューショングループの太田です。 このコラムでは最近ビジネスでの活用が注目されている生成AIエージェントについて気になっていはいるが、導入何から始めるべきか分からない方向けに、生成AIエージェントを使った問い合わせ対応の電通総研での取り組みを紹介します。 さらに、私たちが実際に生成AIエージェント開発を行った際の失敗談や工夫点も紹介しています。 みなさんの今後の開発や検証の参考になれば幸いです。 生成AIエージェントとは? そもそも生成AIエージェントとは、ユーザーの指示に対して、LLM(大規模言語モデル)が目的を達成するためのタスクを計画し、その計画によって自律的に実行するシステムです。 これまでも概念レベルでは論じられてきた技術ではありますが、ChatGPTをはじめとしたLLMの発展により複雑な指示に対しても、複数のタスクを組み立ててながらLLMが最適な計画を自律的に

                                              AIエージェントは何から取り組む?社内取り組み紹介
                                            • MCPで変わるAIエージェント開発 - Qiita

                                              Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 本記事は日本オラクルが運営する下記Meetupで発表予定の内容になります。発表までに今後、内容は予告なく変更される可能性があることをあらかじめご了承ください。 ※ミートアップ実施時の動画は↓こちら。 AIエージェントとMCP 近年、AIの進化は「チャットで質問に答える」だけにとどまらず、ユーザーの意図を理解し、複数の処理を自律的にこなす「AIエージェント」という新たな形へと進化し始めています。とりわけ2025年以降は、各テック企業がこの分野に本格的に参入し、さまざまな技術や製品が次々と登場している状況です。 現在進行形で進化している「A

                                              • Top AI Stories of 2024! Agents Rise, Prices Fall, Models Shrink, Video Takes Off, Acquisitions Morph

                                                Dear friends, Is AI progressing rapidly? Yes! But while the progress of underlying AI technology has indeed sped up over the past 2 years, the fastest acceleration is in applications. Consider this: GPT-4 was released March 2023. Since then, models have become much faster, cheaper, sometimes smaller, more multimodal, and better at reasoning, and many more open weight versions are available — so pr

                                                • March 2025 (version 1.99)

                                                  Update 1.99.1: The update addresses these security issues. Update 1.99.2: The update addresses these issues. Update 1.99.3: The update addresses these issues. Downloads: Windows: x64 Arm64 | Mac: Universal Intel silicon | Linux: deb rpm tarball Arm snap Welcome to the March 2025 release of Visual Studio Code. There are many updates in this version that we hope you'll like, some of the key highligh

                                                    March 2025 (version 1.99)
                                                  • GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)

                                                    🚀 Effortless Setup: Install seamlessly using Docker or Kubernetes (kubectl, kustomize or helm) for a hassle-free experience with support for both :ollama and :cuda tagged images. 🤝 Ollama/OpenAI API Integration: Effortlessly integrate OpenAI-compatible APIs for versatile conversations alongside Ollama models. Customize the OpenAI API URL to link with LMStudio, GroqCloud, Mistral, OpenRouter, and

                                                      GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)
                                                    • VertexAI Google Maps Groundingを用いて作る週末お出かけプランナー - Insight Edge Tech Blog

                                                      [この記事は、Insight Edge Advent Calendar 2025 5日目の記事です。] こんにちは。アジャイル開発チームの中根です。 週末に子どもとのお出かけ先を探すとき、「神奈川県 子ども お出かけ」などと検索していますが、いわゆるまとめサイトが中心に表示されることが多くないでしょうか?結局、自分が子どもと一緒に行ってみたい場所とは違うものが多く、どこがいいのか分からずじまいであんまり意味がないなと感じていました。 また、移動時間や交通手段も考えられておらず、「ここ良さそう!」と思っても、遠すぎたり、子どもの年齢に合わないようなところも多い印象です。いわゆるアミューズメントパークのような場所でなく、広い公園や公営の科学館などそういった地域に根付いた施設をまず第一に紹介してほしい気持ちがありました。 そこで何か作れないかと思い、Vertex AIのGoogle Maps G

                                                        VertexAI Google Maps Groundingを用いて作る週末お出かけプランナー - Insight Edge Tech Blog
                                                      • 無料で学ぶ!生成AIとバズった技術まとめ(LLM、LangChain、Dify、SAM2、Stable Diffusion、RVCなど) - Qiita

                                                        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? まえがき 「ここ数年でバズったAI技術や、最近勢いのある生成系AI技術をキャッチアップしたい」 最近のLLMブームにより、一般の人も簡単にAI技術を使いこなせるようになりました。 特に、もともとAIに明るくなくても、エンジニアなら実装までできるので、インパクトのあるプロダクトを作ることが可能になりました。 「これまでモデル開発をしてきたデータサイエンティスト・AIエンジニアの立場が危ぶまれている気がする」 そんな危機感から、一通り、まずは知る・使えるようになることを目指してこの記事を書くことにしました。 前半パート: 使ってみる編(全員

                                                        • Gemini API / LangGraph / Agent Engine で LLM Agent を実装する

                                                          2025/04/07 追記 前提パッケージのバージョン依存によって、Agent Engine へのデプロイが失敗するケースが発見されたので、pydantic と typing-extensions のバージョンを固定するように本文内の手順を更新しました。 はじめに 下記の記事では、Gemini API の Function Calling を利用して、外部ツールと連携した LLM Agent を実装する方法を解説しました。 Gemini API の Function Calling 機能で LLM Agent を実装する そこでは、下図のループを Python の while ループで愚直に実装しました。 Function Calling を使用した Agent の動作 最近は、このような LLM Agent のループ処理を実装する際に、オープンソースのフレームワークである LangGra

                                                            Gemini API / LangGraph / Agent Engine で LLM Agent を実装する
                                                          • Real-world gen AI use cases from the world's leading organizations | Google Cloud Blog

                                                            AI is here, AI is everywhere: Top companies, governments, researchers, and startups are already enhancing their work with Google's AI solutions. Published April 12, 2024; last updated October 9, 2025. Automotive & Logistics Business & Professional Services Financial Services Healthcare & Life Sciences Hospitality & Travel Manufacturing, Industrial & Electronics Media, Marketing & Gaming Public Sec

                                                              Real-world gen AI use cases from the world's leading organizations | Google Cloud Blog
                                                            • マルチエージェントで新規事業立案を検証 - Google ADK + Geminiによる議論設計の実践 - Insight Edge Tech Blog

                                                              はじめに こんにちは、Insight Edge アジャイル開発チームの山崎です。 マルチエージェントシステムを設計する際、多くの設計判断に直面します。議論はシングルステップで十分か、複数ステップに分割すべきか?各ステップに誰を参加させるべきか?プロンプトはどこまで詳細に書くべきか? 今回の記事では、Google ADK + Geminiを用いて、スタートアップの新規事業立案という具体的な意思決定の事例でマルチエージェントシステムを実際に構築し、議論の論点、議論の進め方、議論するメンバーなどを変化させながら、3つの異なるアプローチを比較検証しました。その結果、以下の知見を得ました(詳細は考察セクションを参照)。 議論メンバーの非対称性設計: 楽観派と批判派のバランスが議論品質を左右する 細かいステップ分割: 論点を細分化することで議論が効率化し、成果物精度が向上する プロンプトチューニングの

                                                                マルチエージェントで新規事業立案を検証 - Google ADK + Geminiによる議論設計の実践 - Insight Edge Tech Blog
                                                              • July 2025 (version 1.103)

                                                                Version 1.108 is now available! Read about the new features and fixes from December. Release date: August 7, 2025 Update 1.103.1: The update adds GPT-5 prompt improvements, support for GPT-5 mini, and addresses these issues. Update 1.103.2: The update addresses these issues. Downloads: Windows: x64 Arm64 | Mac: Universal Intel silicon | Linux: deb rpm tarball Arm snap Welcome to the July 2025 rele

                                                                  July 2025 (version 1.103)
                                                                • Tool Calling with LangChain

                                                                  TLDR: We are introducing a new tool_calls attribute on AIMessage. More and more LLM providers are exposing API’s for reliable tool calling. The goal with the new attribute is to provide a standard interface for interacting with tool invocations. This is fully backwards compatible and is supported on all models that have native tool-calling support. In order to access these latest features you will

                                                                    Tool Calling with LangChain
                                                                  • Gemini 2.0 FlashとRubyでDeepResearchを作ってみた!

                                                                    はじめに LLMの躍進はすさまじく、年初からGemini 2.0、DeepSeek R1、Mistral Small 3、OpenAI o3-miniなど、新しくて強力なモデルが次々と登場しています。今年も非常にエキサイティングな年になりそうです。 そんな2025年ですが、単なるLLMだけでなく「AIエージェントの年になる!」とも言われています。先日も、GoogleによるGemini 1.5をベースにしたDeepResearchと同名の、OpenAIによるo3ベースのDeepResearchが発表され、大きな注目を集めました。 現在、個人的にAriaというAIエージェントフロントエンドを作っているので、今回はDeepResearch風のアプリケーションを自作して、その感触を掴んでみたいと思います。 ちなみに、今回作成した機能のデモはこちらです。 AIエージェントとは? エージェントに関して

                                                                      Gemini 2.0 FlashとRubyでDeepResearchを作ってみた!
                                                                    • GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.

                                                                      Servers for accessing many apps and tools through a single MCP server. 1mcp/agent 📇 ☁️ 🏠 🍎 🪟 🐧 - A unified Model Context Protocol server implementation that aggregates multiple MCP servers into one. tadas-github/a2asearch-mcp 📇 ☁️ - MCP server to search 4,800+ MCP servers, AI agents, CLI tools and agent skills. Install: npx -y a2asearch-mcp. Ask Claude: "Find MCP servers for database access"

                                                                        GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.
                                                                      • Databricks記事のまとめページ(その1) - Qiita

                                                                        Databricksイベント Databricksセミナー・ハンズオンまとめページ Databricks Data + AI Summit 2024バーチャルセッションのご紹介 Databricks年次イベント「DATA + AI WORLD TOUR JAPAN 2022」のご案内 DATA + AIサミット2022のご案内 Data + AIサミットで何が起こるのか:オープンソース、テクニカルキーノートなどなど! Data + AIサミット2021で発表されたDatabricksの新機能 Data + AIサミットで発表された重要ニューストップ10 Data & AI Summit 2022におけるDatabricksレイクハウスプラットフォーム発表の振り返り Data & AIサミットにおけるDatabricks SQLのハイライト JEDAI勉強会 第2回: エンドツーエンド・レコ

                                                                          Databricks記事のまとめページ(その1) - Qiita
                                                                        • Google Apps Script 新時代: 生成 AI と自然言語で拓く Google Workspace 自動化の未来

                                                                          Google Apps Script 新時代: 生成 AI と自然言語で拓く Google Workspace 自動化の未来 概要 本稿では、Google Apps Script (GAS) を AI 時代の統合ハブとして再定義し、Model Context Protocol (MCP) や Agent2Agent (A2A)、そして Gemini CLI エコシステムとの融合によって実現する Google Workspace 自動化の最前線を紹介します。ローカルとクラウドをつなぐデータ統合 (RAG) や、AI が生成した GAS を安全に実行するサンドボックス技術、さらには最新の Google Antigravity 上での自律エージェント連携までを網羅。自然言語による指示だけで複雑なワークフローが自律的に完結する、次世代のワークスタイルとその実装手法を探求します。 序論 人工知能(A

                                                                            Google Apps Script 新時代: 生成 AI と自然言語で拓く Google Workspace 自動化の未来
                                                                          • 『LangChainとLangGraphによるRAG・AIエージェント[実践]入門』は、LangChain/LangGraphを日本語で学習したい人にとって必携の一冊 part1 - Qiita

                                                                            Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Amazon 技術評論社 タイトル: LangChainとLangGraphによるRAG・AIエージェント[実践]入門 以降、「本書」と呼称します。 書評は二部構成です。 第一部の書評 OpenAIのチャットAPIとLangChainの基礎からRAGまで ここ 第二部の書評 AgenticなAIシステム と LangGraph 前置き LangGraphのお勉強してますアピールをしていると、ありがたいことに、著者の吉田さんから、ご恵贈いただきました。吉田さんと大嶋さん共著のChatGPT/LangChainによるチャットシステム構築[実

                                                                              『LangChainとLangGraphによるRAG・AIエージェント[実践]入門』は、LangChain/LangGraphを日本語で学習したい人にとって必携の一冊 part1 - Qiita
                                                                            • Dify.AIが実務に耐えられるか試してみた|伊志嶺(LLMで業務改善する人)

                                                                              ここ一年、LLMを使ったチャットボットや業務改善ツールを仕事で開発しています。 普段はPoCならStreamlit、本番開発ならゴリゴリにフロントとバックを作っているのですが、Dify.AIがオープンソースで商用利用も可能ということなので、試してみました。 DifyとはオープンソースのLLMアプリ開発プラットフォーム。 ノーコードでRAGを使ったチャットボット、エージェント、AIを使ったワークフローなどを作成・公開できる。 githubからリポジトリをcloneしてきてローカルで使うことも、運営が公開しているSaaSから無料or月額料金を払って使うこともできる。 手軽に試したい方は、Dify.AIでアカウント作成してテンプレート機能からすぐにチャットボットを作成・公開できます。 ノーコードで 様々な機能を持ったチャットボットを作成試してわかったことローカルでも簡単に動き、商用利用も可能(一

                                                                                Dify.AIが実務に耐えられるか試してみた|伊志嶺(LLMで業務改善する人)
                                                                              • February 2025 (version 1.98)

                                                                                The feature is still in development and not yet ready for general use. View the experimental features (@tag:experimental). Copilot Edits Agent mode improvements (Experimental) Last month, we introduced agent mode for Copilot Edits in VS Code Insiders. In agent mode, Copilot can automatically search your workspace for relevant context, edit files, check them for errors, and run terminal commands (w

                                                                                  February 2025 (version 1.98)
                                                                                • Vertex AI Gemini APIのFunction callingを触ってみた!! - G-gen Tech Blog

                                                                                  G-gen 又吉です。今回は、Vertex AI Gemini API の Function Calling を触ってみたの概要を紹介します。 はじめに Gemini とは Function calling とは Function calling の仕組み Vertex AI Extensions との違い 触ってみる 実行環境 事前準備 動作確認 はじめに Gemini とは Geminiとは、Google から発表された高性能なマルチモーダルな生成 AI モデルです。テキストおよび画像、動画などの様々な種類のデータを入力、出力として扱えるモデルです。Gemini には、パラメータ規模が異なる Gemini Ultra、Gemini Pro、Gemini Nano の 3 つのモデルがあります。 2023年12月現在、Vertex AI 上では、Gemini Pro が Preview

                                                                                    Vertex AI Gemini APIのFunction callingを触ってみた!! - G-gen Tech Blog