並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 47件

新着順 人気順

openai python sdk function callingの検索結果1 - 40 件 / 47件

  • 技術blogのリンクを投げたらChatGPTが要約して、いい感じに整形してチャンネル投稿してくれるbotを社内Slackに生やしたら捗った話

    こんにちは、株式会社シグマアイのエンジニアの@k_muroです。 今回の記事は最近導入した「技術blogを良い感じに共有してくれるSlack bot」のご紹介を。 はじめに 技術の進化は止まらない。(真面目な話、AI系の進捗がマジですごいて全然追えない) 毎日のように新しい技術、フレームワーク、ライブラリ、ツールが生まれています。そんな中でエンジニアとして働いていると、この情報の波に疲れを感じること、ありませんか? ありますよね?(脅迫) 実際私もその一人で、この小さな疲れが積み重なって大きなストレスとなることに気づきました。 「新しい技術情報、追いつけるかな?」 「あのブログ記事、後で読もうと思ってたのに、どこいったっけ?」 「チーム全員が同じ情報を持ってるか心配だな。」 そんな日常の疑問や不安から逃れるための一歩として、私はあるSlack botを開発しました。このbotは、送られた技

      技術blogのリンクを投げたらChatGPTが要約して、いい感じに整形してチャンネル投稿してくれるbotを社内Slackに生やしたら捗った話
    • AI Agentフレームワークを使うべきなのか?

      こちらはLayerX AI エージェントブログリレー41日目の記事です。 こんにちは、CEO室でAI Agent開発のPdMをしているKenta Watanabeです。 AI Agent開発に取り組んでいる方や自分用の効率化ツールを開発したりしてLLMで遊んでいる方は何かしらのAgentフレームワークを利用されている方が多いのではないかと思います。LayerXでもAI SDKなどのフレームワークが社内で利用されています。本日はAgent開発の試行錯誤を通して得られたAgentフレームワーク選びの参考になるような考え方を紹介できればと思います。 Agentフレームワーク戦国時代 ここ数年はAgentフレームワーク戦国時代と言えるほどたくさんのフレームワークやSDKが開発され利用されているのではないかと思います。各LLM ProviderはLLMを利用するためのHTTP EndpointとSD

        AI Agentフレームワークを使うべきなのか?
      • MCP ツールのコンテキスト圧迫の問題とその解決策

        MCP の普及に伴い、多数のツール定義が LLM のコンテキストを圧迫する課題が浮上しています。本記事では Progressive disclosure(段階的開示)による最小限の情報提供、MCP を使ったコード実行によるツール呼び出しの効率化、単一の検索ツールによるコンテキスト削減など、実践的な解決策を Claude Skills や Cloudflare Code Mode の事例とともに解説します。 Model Context Protocol (MCP) は登場からおよそ 1 年が経過し、事実的な標準としての地位を確立しつつあります。MCP が普及するにつれて、MCP ツールの課題点も浮き彫りになってきました。その課題の 1 つが、1 つのタスクを達成するために多くのツールが読み込まれ、結果として多くのコンテキストが消費されてしまうという問題です。 前提として、LLM がタスクの達

          MCP ツールのコンテキスト圧迫の問題とその解決策
        • Azure OpenAI Serviceの日本語記事まとめ

          Azure OpenAI Serviceについての日本語記事のまとめです。主に公式ドキュメント以外のブログやZenn/Qiitaの記事をまとめています。ボリュームが多いので、目次から気になる項目を選択してご覧ください。 ※長く使える知見のまとめにしたかったので一過性のニュース的な記事や内容が重複している機能紹介記事などは意図的に掲載していません。 この記事はGitHubで管理されています。まとめへの追加修正はプルリクエストまたはIssuesでお気軽にお寄せください! また、以前に本記事をご覧いただき、そこからの差分を知りたい場合はGitHubのHistoryも併せてご覧いただけると把握しやすいかと思います。 概要 まずはここから Azure OpenAI Service を使い始める Azure OpenAI Serviceの概要から実際のリソースデプロイ、プレイグラウンドとAPIでの呼び

            Azure OpenAI Serviceの日本語記事まとめ
          • FastMCP での MCPサーバ と MCPクライアント の構築を試す|npaka

            「FastMCP」での「MCPサーバ」と「MCPクライアント」の構築を試したので、まとめました。 1. FastMCP「FastMCP」は、「MCPサーバ」や「MCPクライアント」をシンプルかつ直感的に構築できるパッケージです。 「MCP」の実装には、サーバのセットアップ、プロトコルハンドラ、コンテンツタイプ、エラー管理など、多くの定型処理が必要です。「FastMCP」は複雑なプロトコルとサーバ管理をすべて処理するため、開発者はツールの構築に集中できます。 「FastMCP」の目標は次のとおりです。 ・高速 高水準インターフェースによりコードが少なくなり、開発が高速化 ・シンプル 最小限の定型文で MCP サーバを構築 ・Pythonic Python開発者にとって自然に感じられる ・完全 コアMCP仕様の完全な実装を提供することを目指している 「FastMCP v1」は、 MCPサーバを

              FastMCP での MCPサーバ と MCPクライアント の構築を試す|npaka
            • Coding Agentについてのまとめ (2026年1月)

              LLMによるコード補完の登場 (2021年) GitHub Copilotの登場 我々がよく知るLLMによる支援はまず GitHub Copilot から始まりました。これはGPT-3 (OpenAI Codex, 現在のCodexと名前が同じで本当にややこしい) をベースとしたコード補完システムで、タイピングをしていると自動的にその行の続きを予測してくれるものです autocompleteとの違い それ以前にもIntelliSenseのようなautocompleteがありましたし、より進歩したn-gramなどを用いたものはありましたが、LLMをベースとしたものはTabnine (Tabnineは初期はn-gramモデル) やCopilotからとなります チャットベースのコードアシストの時代 (2022-2023年) ChatGPTの登場 ChatGPT以降、チャットによる対話形式でコード

                Coding Agentについてのまとめ (2026年1月)
              • GitHub - modelcontextprotocol/servers: Model Context Protocol Servers

                Official integrations are maintained by companies building production ready MCP servers for their platforms. 21st.dev Magic - Create crafted UI components inspired by the best 21st.dev design engineers. 2slides - An MCP server that provides tools to convert content into slides/PPT/presentation or generate slides/PPT/presentation with user intention. ActionKit by Paragon - Connect to 130+ SaaS inte

                  GitHub - modelcontextprotocol/servers: Model Context Protocol Servers
                • neue cc - Claudia - Anthropic ClaudeのC# SDKと現代的なC#によるウェブAPIクライアントの作り方

                  AI関連、競合は現れども、性能的にやはりOpenAI一強なのかなぁというところに現れたAnthropic Claude 3は、確かに明らかに性能がいい、GPT-4を凌駕している……!というわけで大いに気に入った(ついでに最近のOpenAIのムーブが気に入らない)ので、C#で使い倒していきたい!そこで、まずはSDKがないので非公式SDKを作りました。こないだまでプレビュー版を流していたのですが、今回v1.0.0として出します。ライブラリ名は、Claudeだから、Claudiaです!.NET全般で使えるのと、Unity(Runtime/Editor双方)でも動作確認をしているので、アイディア次第で色々活用できると思います。 GitHub - Cysharp/Claudia 今回のSDKを作るにあたっての設計指針の一番目は、公式のPython SDKやTypeScript SDKと限りなく似せる

                  • Agent Skillsに全部賭ける価値はあるか

                    はじめに Agent Skillsがオープンスタンダードとして公開されました。 今年に入ってからCline, Claude Code, opencode, Codexとコーディングエージェントがたくさん出てきましたが、どれも発展途上であり、場当たり的なアップデートばかり繰り返され、全部賭けるにはリスクが大きすぎるようなものばかりでした。 また、コーディングエージェントが登場する前から存在するRAGやMCP、コーディングエージェントを効率的に利用するためのAGENTS.mdファイルにおいても、互換性を重視するあまり、良い仕様改定が行われてきませんでした。 そんな中登場したのがAgent Skillsです。 個人的には今まで登場してきたものの中で、唯一、文句無しの完成度を誇るものでした。 自作コーディングエージェントShaftの作者であり、コンテキストエンジニアリングに関する様々な知見を持つ私

                      Agent Skillsに全部賭ける価値はあるか
                    • AI エージェント界隈で話題の MCP の凄さ実感!ー その特徴・技術概要・今後の展開 ー「メタ AI エージェント」実現なるか?

                      【速報】OpenAI が MCP 対応を発表 & 仕様バージョンアップ! MCP が実質的な業界標準 になりそうです! 2025年3月27日、OpenAI が MCP 対応を発表 しました: @OpenAIDevs "MCP 🤝 OpenAI Agents SDK" 「ChatGPTが“AI界のUSB-C”こと「MCP」対応へ 競合・Anthropic発の規格が実質的な業界標準に」ITmedia また、3月26日には、MCP 仕様のバージョンアップの発表 もありました!(特にリモートMCPサーバー関連): @alexalbert__ "A new version of the MCP spec was finalized today" MCP Spec Revision: 2025-03-26 この資料の内容は古くなってしまった部分があるので、誤解がないようにまずは速報を。 時間が取れ次

                        AI エージェント界隈で話題の MCP の凄さ実感!ー その特徴・技術概要・今後の展開 ー「メタ AI エージェント」実現なるか?
                      • Go + クリーンアーキテクチャで AI エージェント基盤を再設計した話【前編】

                        AIエージェントの開発を一気に行っていたのでそのまとめとなる記事を書いてみようと思います。 エージェント開発のSDKやノーコードツールは充実してきていますが、MVPとしてバックエンドとして使ってる Go でライブラリなどをあまり使わず開発を進めた結果、ほぼ自前で実装することになったので一からのAIエージェント開発ということで参考になるかと思います。 1. はじめに:なぜ Go で AI エージェント基盤を作るのか AI エージェントの実装といえば、一般には Python が選ばれます。 LangChain / LangGraph や LlamaIndex など、強力なエージェントフレームワークのサポートが充実しているからです。 ではなぜ筆者は、Go で、しかも(ほぼ)自前の AI エージェント基盤を一から構築したのか? その理由は以下の 3 点に集約されます。 既存のバックエンドが Go

                          Go + クリーンアーキテクチャで AI エージェント基盤を再設計した話【前編】
                        • 【技術選定/OSS編】LLMプロダクト開発にLangSmithを使って評価と実験を効率化した話 - Gaudiy Tech Blog

                          こんにちは。ファンと共に時代を進める、Web3スタートアップ Gaudiy の seya (@sekikazu01)と申します。 この度 Gaudiy では LangSmith を使った評価の体験をいい感じにするライブラリ、langsmith-evaluation-helper を公開しました。 github.com 大まかな機能としては次のように config と、詳細は後で載せますが、LLMを実行する関数 or プロンプトテンプレートと評価を実行する関数を書いて description: Testing evaluations prompt: entry_function: toxic_example_prompts providers: - id: TURBO config: temperature: 0.7 - id: GEMINI_PRO config: temperature:

                            【技術選定/OSS編】LLMプロダクト開発にLangSmithを使って評価と実験を効率化した話 - Gaudiy Tech Blog
                          • How I Use Every Claude Code Feature

                            I use Claude Code. A lot. As a hobbyist, I run it in a VM several times a week on side projects, often with --dangerously-skip-permissions to vibe code whatever idea is on my mind. Professionally, part of my team builds the AI-IDE rules and tooling for our engineering team that consumes several billion tokens per month just for codegen. The CLI agent space is getting crowded and between Claude Cod

                              How I Use Every Claude Code Feature
                            • 型安全かつシンプルなAgentフレームワーク「PydanticAI」の実装を解剖する - ABEJA Tech Blog

                              はじめに こちらはABEJAアドベントカレンダー2024 12日目の記事です。 こんにちは、ABEJAでデータサイエンティストをしている坂元です。最近はLLMでアプローチしようとしていたことがよくよく検証してみるとLLMでは難しいことが分かり急遽CVのあらゆるモデルとレガシーな画像処理をこれでもかというくらい詰め込んだパイプラインを実装することになった案件を経験して、LLMでは難しそうなことをLLM以外のアプローチでこなせるだけの引き出しとスキルはDSとしてやはり身に付けておくべきだなと思うなどしています(LLMにやらせようとしていることは大抵難しいことなので切り替えはそこそこ大変)。 とはいうものの、Agentの普及によってより複雑かつ高度な推論も出来るようになってきています。弊社の社内外のプロジェクト状況を見ていても最近では単純なRAG案件は減りつつあり、計画からアクションの実行、結果

                                型安全かつシンプルなAgentフレームワーク「PydanticAI」の実装を解剖する - ABEJA Tech Blog
                              • TypeScript 向けの AI フレームワーク TanStack AI を試してみた

                                TanStack AI は TanStack チームが開発する TypeScript 向けの軽量な AI フレームワークです。LLM プロバイダーのインターフェイスを抽象化し、ツール呼び出しやチャット機能を提供します。この記事では TanStack AI の概要と基本的な使い方を紹介します。 AI エージェントの開発をする上で LLM の API 呼び出しを抽象化してくれるフレームワークは欠かせないものと言えるでしょう。OpenAI や Anthropic などの主要な LLM プロバイダーはそれぞれ公式 SDK を提供していますが、それぞれ異なるインターフェイスを提供しているため複数の LLM モデルを切り替えながら開発する場合には煩雑さが増してしまいます。 この差異を吸収してくれるフレームワークとして TypeScript なら AI SDK、Python なら LangChain が

                                  TypeScript 向けの AI フレームワーク TanStack AI を試してみた
                                • Announcing .NET 10 - .NET Blog

                                  Today, we are excited to announce the launch of .NET 10, the most productive, modern, secure, intelligent, and performant release of .NET yet. It’s the result of another year of effort from thousands of developers around the world. This release includes thousands of performance, security, and functional improvements across the entire .NET stack-from languages and developer tools to workloads-enabl

                                    Announcing .NET 10 - .NET Blog
                                  • A Guide to Claude Code 2.0 and getting better at using coding agents

                                    Table of Contents Intro Why I wrote this post The Map is not the territory This post will help you keep up in general Lore time - My Love and Hate relationship with Anthropic Timeline My Codex era Anthropic Redemption Arc + Regaining mandate of heaven Why Opus 4.5 feels goooood This post is not sponsored Pointers for the technically-lite The Evolution of Claude Code Quality of life improvements in

                                      A Guide to Claude Code 2.0 and getting better at using coding agents
                                    • OpenAI API の Agent構築のための新ツール|npaka

                                      以下の記事が面白かったので、簡単にまとめました。 ・New tools for building agents 1. Responses API「Responses API」は、Agentを構築するための新しいAPIです。「Chat Completions」のシンプルさと、「Assistants API」のツール機能を組み合わせています。Agentアプリケーションを構築する開発者にとって、より柔軟な基盤を提供します。1回のAPI呼び出しで、複数のツールやモデルのターンを使用して、複雑なタスクを解決できるようになります。 「Responses API」は「Web search」「File search」「Computer use」などの組み込みツールをサポートします。これらのツールは連携してモデルを現実世界に接続し、タスク完遂においてより有用になるよう設計されています。また、統一されたアイテ

                                        OpenAI API の Agent構築のための新ツール|npaka
                                      • 【インターンレポート】OpenAI Agents SDK (Python版) でコールセンター風音声対話型マルチエージェントデモを作ってみた(おまけ付き) - Insight Edge Tech Blog

                                        目次 【インターンレポート】OpenAI Agents SDK (Python版) でコールセンター風音声対話型マルチエージェントデモを作ってみた(おまけ付き) はじめに 1.AIエージェント✖️音声 = 音声エージェント 1.1 普及してきたAIエージェントについて 1.2 音声エージェントの恩恵について考える 1.3 リアルタイム音声対話API・音声エージェント開発ツールの紹介 2. OpenAI Agents SDK (Python版)で作る音声対話型マルチエージェントツール 2.1 OpenAI Agents SDKとは 2.2 2種類の音声エージェントの構造 2.3 デモの紹介 2.4 今後の展望 おわりに 参考資料 はじめに こんにちは!!! Insight Edgeでアルバイトをしております、東京科学大学大学院 修士2年の田中です。大学院では、経営工学系の研究室で、サッカーの

                                          【インターンレポート】OpenAI Agents SDK (Python版) でコールセンター風音声対話型マルチエージェントデモを作ってみた(おまけ付き) - Insight Edge Tech Blog
                                        • GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.

                                          Servers for accessing many apps and tools through a single MCP server. 1mcp/agent 📇 ☁️ 🏠 🍎 🪟 🐧 - A unified Model Context Protocol server implementation that aggregates multiple MCP servers into one. tadas-github/a2asearch-mcp 📇 ☁️ - MCP server to search 4,800+ MCP servers, AI agents, CLI tools and agent skills. Install: npx -y a2asearch-mcp. Ask Claude: "Find MCP servers for database access"

                                            GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.
                                          • ChatGPT Assistants API の使い方|AGIラボ

                                            本記事では、2024年4月18日からVersion 2 になったAssistants APIの使い方を1から解説します。 この記事は、OpenAI公式サイトの内容と、実際に手元で実践した結果を混合したものになっています。 まだ探りきれていないので、この記事をアップデートしていく予定です。 まず、以下が新機能の概要です: Assistants API v2(ベータ版)の新機能 -- 2024年4月 -- Assistants APIに様々な新機能と改良を発表し、ベータ版を新しいAPIバージョン`OpenAI-Beta: assistants=v2`に移行します。 新機能は以下の通りです。 * 改良された検索ツール`file_search`を導入しました。アシスタントあたり最大10,000ファイルを取り込むことができ、以前の500倍となります。高速化され、マルチスレッド検索による並列クエリをサ

                                              ChatGPT Assistants API の使い方|AGIラボ
                                            • OpenAI Responses API と Agents SDK リリースのまとめ

                                              はじめまして!OpenAI の Developer Experience チームに加わった瀬良(@seratch)と申します。 前職の Slack では公式 SDK の開発と Developer Relations の活動を担当していました。OpenAI でも開発者の皆さんのお役に立てるよう幅広く活動していきますので、よろしくお願いします! エージェント開発のための新たなツール OpenAI は、日本時間の 3/12 未明にエージェント型のアプリケーション開発のための新しい API セットと Agents SDK を発表しました。 公式発表も日本語化されていますので、ぜひそちらもお読みください。この記事では実際に利用する上での技術的なポイントを整理してご紹介します。 tl;dr (要点だけ知りたい方向けのまとめ) 後半ではコード例も交えて、詳しく解説していきますが、まずは、すでに Open

                                                OpenAI Responses API と Agents SDK リリースのまとめ
                                              • LLMにちゃんと“電卓と検索”を使わせるには — ReActスタイルのツール利用・実装入門

                                                はじめに ルミナイR&Dチームの栗原です。 最近の LLM は、テキストを出すだけでなく、 電卓 Web 検索 社内 API データベース など、**外部ツールを叩きながらタスクをこなす「エージェント」**として使われることが増えています。 ただ、 「いつツールを呼ぶべきか?」 「どの引数で呼ぶべきか?」 「ツールの結果をどう踏まえて次のアクションを決めるか?」 といった “段取り”のデザイン を考えると、途端に設計が難しくなります。 この文脈でよく引用されるのが、ICLR 2023 の論文 ReAct: Synergizing Reasoning and Acting in Language Models(Yao et al., 2023) です。 ReAct は名前の通り、Reasoning(推論)と Acting(行動=ツール実行)を交互に行うスタイルを提案しています。 本記事では、

                                                  LLMにちゃんと“電卓と検索”を使わせるには — ReActスタイルのツール利用・実装入門
                                                • OpenAI API の Structured Outputs の使い方|npaka

                                                  以下の記事が面白かったので、簡単にまとめました。 ・Introducing Structured Outputs in the API 1. Structured Outputs昨年のDevDayで、「JSONモード」を導入しました。これは、OpenAIのモデルを使用して信頼性の高いアプリを構築しようとしている開発者にとって便利な構成要素です。「JSONモード」は、有効なJSON出力を生成するためのモデルの信頼性を向上させますが、モデルの応答が特定のスキーマに準拠することを保証するものではありません。本日、APIに「Structured Outputs」を導入します。これは、モデルによって生成された出力が、開発者が提供するJSONスキーマと完全に一致するように設計された新機能です。 複雑なJSONスキーマのフォローの評価では、「Structured Outputs」を備えた新しいモデル「g

                                                    OpenAI API の Structured Outputs の使い方|npaka
                                                  • Assistants API Overview (Python SDK)

                                                    The new Assistants API is a stateful evolution of our Chat Completions API meant to simplify the creation of assistant-like experiences, and enable developer access to powerful tools like Code Interpreter and File Search. Chat Completions API vs Assistants API The primitives of the Chat Completions API are Messages, on which you perform a Completion with a Model (gpt-4o, gpt-4o-mini, etc). It is l

                                                      Assistants API Overview (Python SDK)
                                                    • MCP入門 〜面倒なことはAIエージェントにやらせよう〜 by からあげ を聞きながら - Qiita

                                                      This report. からあげさんから示唆された視点で記事を10個書いたら、 Paper & Hacksで発表しようかなって思うんです。 自分の専門が通信で、USBにはいつもお世話になっている。 MCPがUSBのType-Cならいいのにってなった。 20251012 追記 からあげさんたちが本を出された。 PythonではじめるMCP開発入門 https://www.kodansha.co.jp/book/products/0000419324 関連記事を書きかけ中。 「PythonではじめるMCP開発入門」の前に with ChatGPT https://qiita.com/kaizen_nagoya/items/263ac2f93519e9e000c3 PythonではじめるMCP開発入門 GitHubから始める Anaconda編 https://qiita.com/kaizen

                                                        MCP入門 〜面倒なことはAIエージェントにやらせよう〜 by からあげ を聞きながら - Qiita
                                                      • OpenAI Agents SDK

                                                        Intro Intro Quickstart Examples Documentation API Reference OpenAI Agents SDK The OpenAI Agents SDK enables you to build agentic AI apps in a lightweight, easy-to-use package with very few abstractions. It's a production-ready upgrade of our previous experimentation for agents, Swarm. The Agents SDK has a very small set of primitives: Agents, which are LLMs equipped with instructions and tools Han

                                                        • Gemini 2.0 FlashとRubyでDeepResearchを作ってみた!

                                                          はじめに LLMの躍進はすさまじく、年初からGemini 2.0、DeepSeek R1、Mistral Small 3、OpenAI o3-miniなど、新しくて強力なモデルが次々と登場しています。今年も非常にエキサイティングな年になりそうです。 そんな2025年ですが、単なるLLMだけでなく「AIエージェントの年になる!」とも言われています。先日も、GoogleによるGemini 1.5をベースにしたDeepResearchと同名の、OpenAIによるo3ベースのDeepResearchが発表され、大きな注目を集めました。 現在、個人的にAriaというAIエージェントフロントエンドを作っているので、今回はDeepResearch風のアプリケーションを自作して、その感触を掴んでみたいと思います。 ちなみに、今回作成した機能のデモはこちらです。 AIエージェントとは? エージェントに関して

                                                            Gemini 2.0 FlashとRubyでDeepResearchを作ってみた!
                                                          • Azure OpenAIでFunction Callingを使う!

                                                            本記事のサンプルコードは執筆時点の最新バージョンのAPIとライブラリで検証しています。 特にOpenAI関連のアップデートは頻繁に行われるため、記事閲覧時点の最新バージョンではメソッドやパラメータが変更されている可能性があります。 実際に試す際は最新の公式ドキュメントも併せてご確認ください。 本記事で紹介するfunctionsプロパティは本家OpenAIで非推奨になりました。今後はtoolsプロパティの使用が推奨されています。 今すぐにではないですが、Azure OpenAIもそれに追従する可能性が高く、最新のAPIバージョンではtoolsプロパティが追加されています。 toolsプロパティはFunction Callingの上位互換なので、基礎的な知識として本記事で紹介している内容は無駄ではありませんが、今後に備えて以下のtoolsプロパティの使い方も併せてご覧ください。 https:/

                                                              Azure OpenAIでFunction Callingを使う!
                                                            • GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.

                                                              Servers for accessing many apps and tools through a single MCP server. 1mcp/agent 📇 ☁️ 🏠 🍎 🪟 🐧 - A unified Model Context Protocol server implementation that aggregates multiple MCP servers into one. tadas-github/a2asearch-mcp 📇 ☁️ - MCP server to search 4,800+ MCP servers, AI agents, CLI tools and agent skills. Install: npx -y a2asearch-mcp. Ask Claude: "Find MCP servers for database access"

                                                                GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.
                                                              • OpenAI の Realtime API の概要|npaka

                                                                以下の記事が面白かったので、簡単にまとめました。 ・Introducing the Realtime API 1. Realtime API本日 (2024年10月1日)、OpenAIから「Realtime API」が発表されました。これにより、開発者はアプリで低遅延なマルチモーダル会話エクスペリエンスを構築できるようになりました。ChatGPTの「Advanced Voice Mode」と同様に、6つのプリセット音声を使用して、自然な speech-to-speech をサポートします。 さらに、「Chat Completions API」のオーディオ入出力が発表されました。これは、「Realtime API」の低遅延の利点を必要としないユースケースをサポートします。開発者は任意のテキスト・オーディオを「GPT-4o」に渡し、テキスト・オーディオ・両方を選択して応答させることができます。

                                                                  OpenAI の Realtime API の概要|npaka
                                                                • Claude Agent Skills: A First Principles Deep Dive

                                                                  Deconstructing prompt-based meta-tool architecture and context injection patterns for AI engineering - Claude’s Agent Skills system represents a sophisticated prompt-based meta-tool architecture that extends LLM capabilities through specialized instruction injection. Unlike traditional function calling or code execution, skills operate through prompt expansion and context modification to modify ho

                                                                    Claude Agent Skills: A First Principles Deep Dive
                                                                  • Databricks記事のまとめページ(その1) - Qiita

                                                                    Databricksイベント Databricksセミナー・ハンズオンまとめページ Databricks Data + AI Summit 2024バーチャルセッションのご紹介 Databricks年次イベント「DATA + AI WORLD TOUR JAPAN 2022」のご案内 DATA + AIサミット2022のご案内 Data + AIサミットで何が起こるのか:オープンソース、テクニカルキーノートなどなど! Data + AIサミット2021で発表されたDatabricksの新機能 Data + AIサミットで発表された重要ニューストップ10 Data & AI Summit 2022におけるDatabricksレイクハウスプラットフォーム発表の振り返り Data & AIサミットにおけるDatabricks SQLのハイライト JEDAI勉強会 第2回: エンドツーエンド・レコ

                                                                      Databricks記事のまとめページ(その1) - Qiita
                                                                    • あなたのAIエージェントはどっち派? MCPツールをLLMに渡す2つの方法 - ENECHANGE Developer Blog

                                                                      VPoTの岩本 (iwamot) です。*1 昨日の水本さんの記事を読み、AIの登場による変化を前向きにとらえる姿勢が重要だと感じました。登場前に戻ることはもうできないですものね。 今日のぼくの記事では、AIエージェントを「使う」ではなく「作る」視点での「AIエージェント活用」を取り上げます。AIエージェントの実装に興味のある方の参考になれば幸いです。 フォーカスするのは「AIエージェントからMCPツールの情報をどのようにLLMに渡すか」についてです。MCPツールの情報を渡さなければ、LLMはツールが呼び出せる(AIエージェントに呼び出しを依頼できる)ことを知らないまま回答してしまいます。 以下、ご自身がAIエージェント(例:Cline、Claude Code)やAIエージェントSDK(例:Strands Agents、OpenAI Agents SDK)を実装するとしたらどうするか考えな

                                                                        あなたのAIエージェントはどっち派? MCPツールをLLMに渡す2つの方法 - ENECHANGE Developer Blog
                                                                      • Context Engineering - Short-Term Memory Management with Sessions from OpenAI Agents SDK

                                                                        Prerequisites Before running this cookbook, you must set up the following accounts and complete a few setup actions. These prerequisites are essential to interact with the APIs used in this project. Step0: OpenAI Account and OPENAI_API_KEY Purpose: You need an OpenAI account to access language models and use the Agents SDK featured in this cookbook. Action: Sign up for an OpenAI account if you don

                                                                          Context Engineering - Short-Term Memory Management with Sessions from OpenAI Agents SDK
                                                                        • DeepSeek-R1(deepseek-reasoner)についてまとめ、API から試してみる|ぬこぬこ

                                                                          tl;drDeepSeek R1 は MIT ライセンスで商用利用可能なオープンモデル DeepSeek API は他の SOTA モデルと比較して一桁程度小さい料金で利用可能 API レスポンスは CoT 部分を返す reasoning_content と最終的な回答部分を返す content に分けられる max_tokens を 1 に設定すると、思考過程のみを抽出できるが、CoT 部分も課金対象となる aider のベンチマークでは、DeepSeek R1 と Claude 3.5 Sonnet の組み合わせが o1 を超える性能を発揮したが、R1 の CoT 部分を渡しているわけではない みなさん、DeepSeek R1 を使われていらっしゃいますか?さすがに 671B とローカル環境で動かすには荷が重いパラメータ数ではありますが、DeepSeek Chat(ウェブ版)からであれ

                                                                            DeepSeek-R1(deepseek-reasoner)についてまとめ、API から試してみる|ぬこぬこ
                                                                          • 12 Days of OpenAIの発表内容まとめ【生成AIエンジニア必見】

                                                                            はじめまして、ますみです! 株式会社Galirage(ガリレージ)という「生成AIに特化して、システム開発・アドバイザリー支援・研修支援をしているIT企業」で、代表をしております^^ 2024年12月にOpenAIは、12日間連続で新発表をしていくイベントを行いました! 本記事では、この「12 Days of OpenAI」の要点をまとめていきます! ChatGPTの基礎知識について先に学んでおきたい方は、こちらを先にご覧ください◎ まとめ Day 1: 「o1モデル」正式版と「ChatGPT Pro」発表 o1モデル正式版リリース: プレビュー版より性能・速度・多機能化を強化。 ChatGPT Proプラン発表: 月額200ドル、o1の高性能モードが利用可能。 API対応予定: Function Calling、Structured Outputの提供計画。 Day 2: Reinfor

                                                                              12 Days of OpenAIの発表内容まとめ【生成AIエンジニア必見】
                                                                            • GitHub - taishi-i/awesome-ChatGPT-repositories: A curated list of resources dedicated to open source GitHub repositories related to ChatGPT and OpenAI API

                                                                              awesome-chatgpt-api - Curated list of apps and tools that not only use the new ChatGPT API, but also allow users to configure their own API keys, enabling free and on-demand usage of their own quota. awesome-chatgpt-prompts - This repo includes ChatGPT prompt curation to use ChatGPT better. awesome-chatgpt - Curated list of awesome tools, demos, docs for ChatGPT and GPT-3 awesome-totally-open-chat

                                                                                GitHub - taishi-i/awesome-ChatGPT-repositories: A curated list of resources dedicated to open source GitHub repositories related to ChatGPT and OpenAI API
                                                                              • Tiny Agents: an MCP-powered agent in 50 lines of code

                                                                                New! (May 23, '25) If you prefer Python, check out the companion post Tiny Agents in Python. Over the past few weeks, I've been diving into MCP (Model Context Protocol) to understand what the hype around it was all about. My TL;DR is that it's fairly simple, but still quite powerful: MCP is a standard API to expose sets of Tools that can be hooked to LLMs. It is fairly simple to extend an Inferenc

                                                                                  Tiny Agents: an MCP-powered agent in 50 lines of code
                                                                                • I think “agent” may finally have a widely enough agreed upon definition to be useful jargon now

                                                                                  Sponsored by: WorkOS — Production-ready APIs for auth and access control, so you can ship faster. I think “agent” may finally have a widely enough agreed upon definition to be useful jargon now 18th September 2025 I’ve noticed something interesting over the past few weeks: I’ve started using the term “agent” in conversations where I don’t feel the need to then define it, roll my eyes or wrap it in

                                                                                    I think “agent” may finally have a widely enough agreed upon definition to be useful jargon now