並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 59件

新着順 人気順

openai function calling python exampleの検索結果1 - 40 件 / 59件

  • OpenAI API の ファインチューニングガイド|npaka

    1. ファインチューニングの利点ファインチューニングの利点は、次のとおりです。 (1) プロンプトよりも高品質な応答 (2) プロンプトに収まりきらないより多くの例の適用 (3) プロンプトの短縮によるトークン数 (コスト) の節約 (4) プロンプトの短縮による処理時間の短縮 モデルは膨大な量のテキストで事前学習されており、このモデルを効果的に利用するため、プロンプトに手順や応答の例を指定する手法が使われます。この例を使用してタスクの実行方法を示すことを「Few-Shot」と呼びます。 ファインチューニングで、プロンプトに収まりきらないより多くの例で学習することにより、さまざまなタスクでより良い結果を達成できるようになります。プロンプトに多くの例を指定する必要はなくなります。これによりトークン (コスト) が節約され、処理時間も短縮されます。 2. ファインチューニングの使用料金ファイン

      OpenAI API の ファインチューニングガイド|npaka
    • LangChainを使わない - ABEJA Tech Blog

      TL; DR LangChainのメリデメを整理する過程で、今となってはopenai-pythonのうちChatGPTのAPIをを簡単に取り回せる程度のシンプルなライブラリがあるだけでも十分便利なんじゃないかと思ったので、ライブラリを個人で作ってみました。(バージョン0.0.1なのでちょっとお粗末な所もありますが) github.com はじめに こんにちは、データサイエンティストの坂元です。ABEJAアドベントカレンダーの13日目の記事です。世は大LLM時代ということで、ありがたいことにABEJAでも複数のLLMプロジェクトを推進させて頂いています。私自身もいくつかのLLMプロジェクトに参画しています。LLMといえばLangChainが便利ですね。OpenAI APIの利用だけでなく、各種ドキュメントのパースが出来たり、HuggingFaceやインデックスDBを扱う他のライブラリとインテ

        LangChainを使わない - ABEJA Tech Blog
      • 【速報】OpenAI APIでGPT-3.5-turboがfine-tuningできるようになりました!! | DevelopersIO

        ただし、GPT-4と比較すると安価にはなっていますので、性能比較をしながら良い塩梅を探すとコスト的にメリットがある可能性があります。 また学習のコストですが、以下のように学習データ全体のトークン数 x エポック数という形で費用が掛かるので注意が必要です。 (エポック数は後述するようにパラメータとして指定可能です) For example, a gpt-3.5-turbo fine-tuning job with a training file of 100,000 tokens that is trained for 3 epochs would have an expected cost of $2.40. 公式ページは以下となりますので、併せてご確認ください。 レート制限 fine-tuningのレート制限については、以下に記載があります。 fine-tuningについては以下のように

          【速報】OpenAI APIでGPT-3.5-turboがfine-tuningできるようになりました!! | DevelopersIO
        • MCP ツールのコンテキスト圧迫の問題とその解決策

          MCP の普及に伴い、多数のツール定義が LLM のコンテキストを圧迫する課題が浮上しています。本記事では Progressive disclosure(段階的開示)による最小限の情報提供、MCP を使ったコード実行によるツール呼び出しの効率化、単一の検索ツールによるコンテキスト削減など、実践的な解決策を Claude Skills や Cloudflare Code Mode の事例とともに解説します。 Model Context Protocol (MCP) は登場からおよそ 1 年が経過し、事実的な標準としての地位を確立しつつあります。MCP が普及するにつれて、MCP ツールの課題点も浮き彫りになってきました。その課題の 1 つが、1 つのタスクを達成するために多くのツールが読み込まれ、結果として多くのコンテキストが消費されてしまうという問題です。 前提として、LLM がタスクの達

            MCP ツールのコンテキスト圧迫の問題とその解決策
          • GitHub - modelcontextprotocol/servers: Model Context Protocol Servers

            Official integrations are maintained by companies building production ready MCP servers for their platforms. 21st.dev Magic - Create crafted UI components inspired by the best 21st.dev design engineers. 2slides - An MCP server that provides tools to convert content into slides/PPT/presentation or generate slides/PPT/presentation with user intention. ActionKit by Paragon - Connect to 130+ SaaS inte

              GitHub - modelcontextprotocol/servers: Model Context Protocol Servers
            • GPT in 60 Lines of NumPy | Jay Mody

              January 30, 2023 In this post, we'll implement a GPT from scratch in just 60 lines of numpy. We'll then load the trained GPT-2 model weights released by OpenAI into our implementation and generate some text. Note: This post assumes familiarity with Python, NumPy, and some basic experience with neural networks. This implementation is for educational purposes, so it's missing lots of features/improv

              • ClaudeのMCPを徹底解説! & gpt-4o+MCP+YouTube APIの動画推薦チャットAIも作る - Qiita

                こんにちは!逆瀬川 ( https://x.com/gyakuse ) です! このアドベントカレンダーでは生成AIのアプリケーションを実際に作り、どのように作ればいいのか、ということをわかりやすく書いていければと思います。アプリケーションだけではなく、プロダクト開発に必要なモデルの調査方法、training方法、基礎知識等にも触れていければと思います。アドベントカレンダー全部書く、みたいな予定を立ててしまったので、1日あたり60分くらいで書けたらな〜と思っていますが、以下の記事は3時間程度かかり、泣いています。勢いで書いているので、不正確な部分がもしあればコメント等で指摘していただければ幸いです。 今回の記事について 今日はClaudeが発表したMCP (Model Context Protocol) について紹介し、独自のMCPサーバーを作成したり、Claude以外のLLMで使えること

                  ClaudeのMCPを徹底解説! & gpt-4o+MCP+YouTube APIの動画推薦チャットAIも作る - Qiita
                • 【技術選定/OSS編】LLMプロダクト開発にLangSmithを使って評価と実験を効率化した話 - Gaudiy Tech Blog

                  こんにちは。ファンと共に時代を進める、Web3スタートアップ Gaudiy の seya (@sekikazu01)と申します。 この度 Gaudiy では LangSmith を使った評価の体験をいい感じにするライブラリ、langsmith-evaluation-helper を公開しました。 github.com 大まかな機能としては次のように config と、詳細は後で載せますが、LLMを実行する関数 or プロンプトテンプレートと評価を実行する関数を書いて description: Testing evaluations prompt: entry_function: toxic_example_prompts providers: - id: TURBO config: temperature: 0.7 - id: GEMINI_PRO config: temperature:

                    【技術選定/OSS編】LLMプロダクト開発にLangSmithを使って評価と実験を効率化した話 - Gaudiy Tech Blog
                  • How I Use Every Claude Code Feature

                    I use Claude Code. A lot. As a hobbyist, I run it in a VM several times a week on side projects, often with --dangerously-skip-permissions to vibe code whatever idea is on my mind. Professionally, part of my team builds the AI-IDE rules and tooling for our engineering team that consumes several billion tokens per month just for codegen. The CLI agent space is getting crowded and between Claude Cod

                      How I Use Every Claude Code Feature
                    • LLM×強化学習の新しいパラダイム: Agentic RLの研究紹介

                      はじめに 本記事では、LLM研究で注目を集めるエージェント型強化学習(Agentic Reinforcement Learning、Agentic RL)のサーベイ論文 「The Landscape of Agentic Reinforcement Learning for LLMs: A Survey」[1]を読み、私なりの理解と要点を整理して紹介します。500件以上の文献を引用するボリュームのある論文ですが、ここでは重要だと感じたトピックに絞って取り上げます。Agentic RLに興味がある方や、LLMに対する強化学習の最新動向を知りたい方の参考になれば幸いです。 本記事の前提 PPOやGRPOといったRLアルゴリズムの解説は他の多くの記事で既に説明されているため、本記事では割愛します。 DeepSeek-R1[2]の研究を前提とする箇所がいくつかあります。未読の方は原著論文や解説記事

                        LLM×強化学習の新しいパラダイム: Agentic RLの研究紹介
                      • 型安全かつシンプルなAgentフレームワーク「PydanticAI」の実装を解剖する - ABEJA Tech Blog

                        はじめに こちらはABEJAアドベントカレンダー2024 12日目の記事です。 こんにちは、ABEJAでデータサイエンティストをしている坂元です。最近はLLMでアプローチしようとしていたことがよくよく検証してみるとLLMでは難しいことが分かり急遽CVのあらゆるモデルとレガシーな画像処理をこれでもかというくらい詰め込んだパイプラインを実装することになった案件を経験して、LLMでは難しそうなことをLLM以外のアプローチでこなせるだけの引き出しとスキルはDSとしてやはり身に付けておくべきだなと思うなどしています(LLMにやらせようとしていることは大抵難しいことなので切り替えはそこそこ大変)。 とはいうものの、Agentの普及によってより複雑かつ高度な推論も出来るようになってきています。弊社の社内外のプロジェクト状況を見ていても最近では単純なRAG案件は減りつつあり、計画からアクションの実行、結果

                          型安全かつシンプルなAgentフレームワーク「PydanticAI」の実装を解剖する - ABEJA Tech Blog
                        • Announcing .NET 10 - .NET Blog

                          Today, we are excited to announce the launch of .NET 10, the most productive, modern, secure, intelligent, and performant release of .NET yet. It’s the result of another year of effort from thousands of developers around the world. This release includes thousands of performance, security, and functional improvements across the entire .NET stack-from languages and developer tools to workloads-enabl

                            Announcing .NET 10 - .NET Blog
                          • A Guide to Claude Code 2.0 and getting better at using coding agents

                            Table of Contents Intro Why I wrote this post The Map is not the territory This post will help you keep up in general Lore time - My Love and Hate relationship with Anthropic Timeline My Codex era Anthropic Redemption Arc + Regaining mandate of heaven Why Opus 4.5 feels goooood This post is not sponsored Pointers for the technically-lite The Evolution of Claude Code Quality of life improvements in

                              A Guide to Claude Code 2.0 and getting better at using coding agents
                            • 【インターンレポート】OpenAI Agents SDK (Python版) でコールセンター風音声対話型マルチエージェントデモを作ってみた(おまけ付き) - Insight Edge Tech Blog

                              目次 【インターンレポート】OpenAI Agents SDK (Python版) でコールセンター風音声対話型マルチエージェントデモを作ってみた(おまけ付き) はじめに 1.AIエージェント✖️音声 = 音声エージェント 1.1 普及してきたAIエージェントについて 1.2 音声エージェントの恩恵について考える 1.3 リアルタイム音声対話API・音声エージェント開発ツールの紹介 2. OpenAI Agents SDK (Python版)で作る音声対話型マルチエージェントツール 2.1 OpenAI Agents SDKとは 2.2 2種類の音声エージェントの構造 2.3 デモの紹介 2.4 今後の展望 おわりに 参考資料 はじめに こんにちは!!! Insight Edgeでアルバイトをしております、東京科学大学大学院 修士2年の田中です。大学院では、経営工学系の研究室で、サッカーの

                                【インターンレポート】OpenAI Agents SDK (Python版) でコールセンター風音声対話型マルチエージェントデモを作ってみた(おまけ付き) - Insight Edge Tech Blog
                              • Top AI Stories of 2024! Agents Rise, Prices Fall, Models Shrink, Video Takes Off, Acquisitions Morph

                                Dear friends, Is AI progressing rapidly? Yes! But while the progress of underlying AI technology has indeed sped up over the past 2 years, the fastest acceleration is in applications. Consider this: GPT-4 was released March 2023. Since then, models have become much faster, cheaper, sometimes smaller, more multimodal, and better at reasoning, and many more open weight versions are available — so pr

                                • Model Spec (2024/05/08)

                                  This version is provided for historical reference and may not reflect current policy. May 08, 2024 Overview This is the first draft of the Model Spec, a document that specifies desired behavior for our models in the OpenAI API and ChatGPT. It includes a set of core objectives, as well as guidance on how to deal with conflicting objectives or instructions. Our intention is to use the Model Spec as

                                  • OpenAI API の Structured Outputs の使い方|npaka

                                    以下の記事が面白かったので、簡単にまとめました。 ・Introducing Structured Outputs in the API 1. Structured Outputs昨年のDevDayで、「JSONモード」を導入しました。これは、OpenAIのモデルを使用して信頼性の高いアプリを構築しようとしている開発者にとって便利な構成要素です。「JSONモード」は、有効なJSON出力を生成するためのモデルの信頼性を向上させますが、モデルの応答が特定のスキーマに準拠することを保証するものではありません。本日、APIに「Structured Outputs」を導入します。これは、モデルによって生成された出力が、開発者が提供するJSONスキーマと完全に一致するように設計された新機能です。 複雑なJSONスキーマのフォローの評価では、「Structured Outputs」を備えた新しいモデル「g

                                      OpenAI API の Structured Outputs の使い方|npaka
                                    • April 2025 (version 1.100)

                                      Version 1.108 is now available! Read about the new features and fixes from December. Release date: May 8, 2025 Update: Enable Next Edit Suggestions (NES) by default in VS Code Stable (more...). Update 1.100.1: The update addresses these security issues. Update 1.100.2: The update addresses these issues. Update 1.100.3: The update addresses these issues. Downloads: Windows: x64 Arm64 | Mac: Univers

                                        April 2025 (version 1.100)
                                      • Assistants API Overview (Python SDK)

                                        The new Assistants API is a stateful evolution of our Chat Completions API meant to simplify the creation of assistant-like experiences, and enable developer access to powerful tools like Code Interpreter and File Search. Chat Completions API vs Assistants API The primitives of the Chat Completions API are Messages, on which you perform a Completion with a Model (gpt-4o, gpt-4o-mini, etc). It is l

                                          Assistants API Overview (Python SDK)
                                        • SemVer in Rust: Tooling, Breakage, and Edge Cases — FOSDEM 2024

                                          SemVer in Rust: Tooling, Breakage, and Edge Cases — FOSDEM 2024 Last month, I gave a talk titled "SemVer in Rust: Breakage, Tooling, and Edge Cases" at the FOSDEM 2024 conference. The talk is a practical look at what semantic versioning (SemVer) buys us, why SemVer goes wrong in practice, and how the cargo-semver-checks linter can help prevent the damage caused by SemVer breakage. TL;DR: SemVer is

                                            SemVer in Rust: Tooling, Breakage, and Edge Cases — FOSDEM 2024
                                          • How I Use AI: Meet My Promptly Hired Model Intern

                                            written on January 30, 2025 After Musk’s acquisition of Twitter, many people I respect and follow moved to Bluesky. I created an account there and made an honest attempt of making it my primary platform. Sadly, I found Bluesky to be surprisingly hostile towards AI content. There is an almost religious resistance to AI on there, at least in whatever corner of the platform I ended up in. Despite the

                                              How I Use AI: Meet My Promptly Hired Model Intern
                                            • LLM Powered Autonomous Agents

                                              Date: June 23, 2023 | Estimated Reading Time: 31 min | Author: Lilian Weng Building agents with LLM (large language model) as its core controller is a cool concept. Several proof-of-concepts demos, such as AutoGPT, GPT-Engineer and BabyAGI, serve as inspiring examples. The potentiality of LLM extends beyond generating well-written copies, stories, essays and programs; it can be framed as a powerfu

                                              • Solving Quantitative Reasoning Problems With Language Models

                                                Solving Quantitative Reasoning Problems with Language Models Aitor Lewkowycz∗, Anders Andreassen†, David Dohan†, Ethan Dyer†, Henryk Michalewski†, Vinay Ramasesh†, Ambrose Slone, Cem Anil, Imanol Schlag, Theo Gutman-Solo, Yuhuai Wu, Behnam Neyshabur∗, Guy Gur-Ari∗, and Vedant Misra∗ Google Research Abstract Language models have achieved remarkable performance on a wide range of tasks that require

                                                • ChatGPT/LangChainによるチャットシステム構築[実践]入門 | 技術評論社

                                                  著者 吉田真吾(よしだしんご),大嶋勇樹(おおしまゆうき) 著 定価 3,300円(本体3,000円+税10%) 発売日 2023.10.18 判型 B5変形 頁数 280ページ ISBN 978-4-297-13839-4 978-4-297-13840-0 概要 本書は、ChatGPTのAPIとLangChainを使って、大規模言語モデル(LLM)を本番レベルのシステムに組み込むための知識をステップバイステップで学習し、手を動かしながら実践できる書籍です。 生成AIが登場し、APIやフレームワークのエコシステムが充実してきたことによって、これまで機械学習やプログラミングの十分な知識が必要だったことに対してアプリケーション開発者が挑戦しやすくなりました。LLMの性質を活かしたサービスや業務システム構築の基礎を理解し、LLMのモデルやワークフローを抽象化して取り扱ううえで、LangChai

                                                    ChatGPT/LangChainによるチャットシステム構築[実践]入門 | 技術評論社
                                                  • 【論文詳解】RestGPT: ユーザ指示からRESTful APIを実行する新たなLLMエージェント

                                                    はじめに 初めまして、株式会社Carnotでインターンをしている長谷川と申します。 Carnotでは、LLMを活用し日々の業務フローの効率化や自動化をするためのソリューション「Promptflow」の開発を行っています。 上記のようなワークフローを作成する際には、SlackやGmail、Notionなど各サービスのAPIを連携させていく必要があります。しかし、そのような開発にはプログラミングの知識が必須で、非エンジニアにとってAPIを用いたシステムを作成することは難しいと思われます。そこで、今回は言語のみの指示から複数のAPIを呼び出すことが可能なRestGPTという手法を調査しました。 例えば音楽配信サービスを使う中で「YOASOBIが出した最新のアルバムを自分のプレイリストに追加する」という作業をしたい時、これを自分で行うのは面倒である上、コードを書いて自動化するのも非エンジニアにとっ

                                                      【論文詳解】RestGPT: ユーザ指示からRESTful APIを実行する新たなLLMエージェント
                                                    • LangChainによるCode Interpreterオープンソース実装を試す|はまち

                                                      先日OpenAIからChatGPTのCode Interpreter が公開されて、その能力の高さと応用範囲の広さから界隈で大騒ぎになっていますね。そのコードインタープリター機能をFunction Callingを利用して、LangChainでオープンソース実装を行う試みも始まったようです。 というわけで、さっそく簡単に試食してみます。なお、技術的な詳細などはLangChainの公式ブログやGitHubリポジトリなどをご参照ください。 概要LangChainエージェント用のPythonコード実行環境として、専用のJupyterカーネルであるCodeBoxを準備し、その中でPythonインタープリターを実行することで機能を実現しているとのことです。 入力ファイルとして、ローカルのファイルも指定できますが、URLを指定するとネット情報も取得できる。 Google Colabで試してみる簡単にG

                                                        LangChainによるCode Interpreterオープンソース実装を試す|はまち
                                                      • Eliciting Reasoning in Language Models with Cognitive Tools

                                                        Eliciting Reasoning in Language Models with Cognitive Tools Brown Ebouky IBM Research - Zurich ETH Zurich Brown.Ebouky@ibm.com Andrea Bartezzaghi IBM Research - Zurich abt@zurich.ibm.com Mattia Rigotti IBM Research - Zurich mrg@zurich.ibm.com Abstract The recent advent of reasoning models like OpenAI’s o1 was met with excited spec- ulation by the AI community about the mechanisms underlying these

                                                        • July 2025 (version 1.103)

                                                          Version 1.108 is now available! Read about the new features and fixes from December. Release date: August 7, 2025 Update 1.103.1: The update adds GPT-5 prompt improvements, support for GPT-5 mini, and addresses these issues. Update 1.103.2: The update addresses these issues. Downloads: Windows: x64 Arm64 | Mac: Universal Intel silicon | Linux: deb rpm tarball Arm snap Welcome to the July 2025 rele

                                                            July 2025 (version 1.103)
                                                          • Tool Calling with LangChain

                                                            TLDR: We are introducing a new tool_calls attribute on AIMessage. More and more LLM providers are exposing API’s for reliable tool calling. The goal with the new attribute is to provide a standard interface for interacting with tool invocations. This is fully backwards compatible and is supported on all models that have native tool-calling support. In order to access these latest features you will

                                                              Tool Calling with LangChain
                                                            • GPTsに自分でカスタムしたGPTを登録しまくろう!|斉藤 滋

                                                              先日のOpenAI DevDayで公開された諸々の発表の中に、ChatGPTに関するアップデートとして、GPTsとGPTストアがあった。GPTストアは月内のアップデートということなので公開されるのを待つとして、GPTsについて調べてみたのでまとめていく。 その他のアップデートについてはこちらにまとめているので興味ある方はこちらをどうぞ。 見出しを翻訳してみる。 GPTsの紹介: インストラクション、追加知識、スキルの任意の組み合わせて ChatGPT のカスタム バージョンを作成できるようになりました GPTs を使用すると、特定の目的に合わせて ChatGPT をカスタマイズできます 最高の GPTs はコミュニティによって発明されます GPTストアは今月後半に展開されます プライバシーと安全性を念頭に置いて GPTs を構築しました 開発者は GPTs を現実世界に接続できます 企業顧

                                                                GPTsに自分でカスタムしたGPTを登録しまくろう!|斉藤 滋
                                                              • ChatGPTを使って音声指示でロボットを動かしてみた(GPTsのActions、MQTT、ATOM Matrix、toio、UIFlow) - ABEJA Tech Blog

                                                                TL; DR GPTsに音声入力で指示すると、それに従ってATOM Matrix経由でtoioが動いてくれるようなものを作ってみました。 GPTsのActionsから何秒動きたいかを判断して、BeebotteというMQTTブローカーを使ってATOM Matrix経由でtoioにその秒数を指示します。 ChatGPTなので、「ちょっと進んで」というような曖昧な指示でも1秒を設定して指示してくれます。 (スタックチャンは賑やかしのために参加してもらっただけで今回の内容とは関係ないです。そのうちAIスタックチャンのfunction callingで指示できるように改良予定) 動画↓ www.youtube.com はじめに こんにちは。株式会社ABEJA でプロジェクトマネージャーをメインにやっていて、データサイエンティストも兼務している道辻です。本記事はABEJAアドベントカレンダー2023の

                                                                  ChatGPTを使って音声指示でロボットを動かしてみた(GPTsのActions、MQTT、ATOM Matrix、toio、UIFlow) - ABEJA Tech Blog
                                                                • Fine-Tune Whisper For Multilingual ASR with 🤗 Transformers

                                                                  For demonstration purposes, we'll fine-tune the multilingual version of the small checkpoint with 244M params (~= 1GB). As for our data, we'll train and evaluate our system on a low-resource language taken from the Common Voice dataset. We'll show that with as little as 8 hours of fine-tuning data, we can achieve strong performance in this language. 1{}^11 The name Whisper follows from the acronym

                                                                    Fine-Tune Whisper For Multilingual ASR with 🤗 Transformers
                                                                  • So you want to build your own open source ChatGPT-style chatbot… – Mozilla Hacks - the Web developer blog

                                                                    So you want to build your own open source ChatGPT-style chatbot… (Expanded from a talk given at DWeb Camp 2023.) Artificial intelligence may well prove one of the most impactful and disruptive technologies to come along in years. This impact isn’t theoretical: AI is already affecting real people in substantial ways, and it’s already changing the Web that we know and love. Acknowledging the potenti

                                                                      So you want to build your own open source ChatGPT-style chatbot… – Mozilla Hacks - the Web developer blog
                                                                    • はじめての自然言語処理 ELYZA 日本語 Llama 2 指示応答モデルのファインチューニングと vLLM での推論 | オブジェクトの広場

                                                                      今回は Elyza さんの日本語 Llama 2 指示応答モデルをファインチューニングし、vLLM にデプロイして高速に推論してみます。70 億パラメータモデルならギリギリ Tesla T4 x 1 の構成でも float16 で動かせるかと思ったのですが、どうだったでしょうか。vLLM には OpenAI 互換の API インタフェースも備えているので、ついでに LangChain からも接続してみたり。 1. はじめに 今回は Elyza さんが公開されている大規模指示応答言語モデルである、ELYZA-japanese-Llama-2-7b-fast-instruct1 をファインチューニングして vLLM で推論してみます。 そんな訳で今回あまり書くことがなく、動かし方だけサラっと書いて「動きましたー。では良いお年を~。」で締めることにします。 しかし、時代感覚無視の隔月連載でネタを

                                                                        はじめての自然言語処理 ELYZA 日本語 Llama 2 指示応答モデルのファインチューニングと vLLM での推論 | オブジェクトの広場
                                                                      • Microsoftのguidanceの日本語まとめ|にょす

                                                                        MicrosoftがguidanceというLangChainのオルタナティブとなるかもしれないOSSを発表しました。 Readmeを参考に、内容を日本語でまとめていきます。 GuidanceとはGuidanceは、従来のプロンプトやCoTよりも、現代の言語モデルを効果的かつ効率的に制御することができます。Guidanceのプログラムを使うと、生成、プロンプト、論理制御を一つの連続した流れに組み込むことができます。 これは、言語モデルが実際にテキストを処理している方法に適合しています。Chain of Thought やその多くのバリエーション(例えば、ART、Auto-CoT など)のようなシンプルな出力構造は、LLM の性能向上に役立つことが示されています。GPT-4 のようなより高性能なLLMの登場により、さらに豊かな構造が可能となり、ガイダンスを使えばその構造をより簡単かつ安価に実現

                                                                          Microsoftのguidanceの日本語まとめ|にょす
                                                                        • Claude Agent Skills: A First Principles Deep Dive

                                                                          Deconstructing prompt-based meta-tool architecture and context injection patterns for AI engineering - Claude’s Agent Skills system represents a sophisticated prompt-based meta-tool architecture that extends LLM capabilities through specialized instruction injection. Unlike traditional function calling or code execution, skills operate through prompt expansion and context modification to modify ho

                                                                            Claude Agent Skills: A First Principles Deep Dive
                                                                          • Databricks記事のまとめページ(その1) - Qiita

                                                                            Databricksイベント Databricksセミナー・ハンズオンまとめページ Databricks Data + AI Summit 2024バーチャルセッションのご紹介 Databricks年次イベント「DATA + AI WORLD TOUR JAPAN 2022」のご案内 DATA + AIサミット2022のご案内 Data + AIサミットで何が起こるのか:オープンソース、テクニカルキーノートなどなど! Data + AIサミット2021で発表されたDatabricksの新機能 Data + AIサミットで発表された重要ニューストップ10 Data & AI Summit 2022におけるDatabricksレイクハウスプラットフォーム発表の振り返り Data & AIサミットにおけるDatabricks SQLのハイライト JEDAI勉強会 第2回: エンドツーエンド・レコ

                                                                              Databricks記事のまとめページ(その1) - Qiita
                                                                            • OpenAIによるChat APIの新機能Function callingをPythonで使ってみた - Qiita

                                                                              Supershipの名畑です。Dr.STONEは分割2クールなのですね。1期、2期も面白かったけれど、今回の3期はさらに面白い。何度涙腺が緩んだことか。さて、10月まで秒数をカウントしますかね……。 はじめに OpenAI(ChatGPTの提供元)によるChat APIについてまた書かせていただきます。 先日Function calling and other API updatesにて、APIのアップデートが告知されました。 アップデート内容の一つであるFunction calling(関数呼び出し)が話題になっておりますが、こちらについて私も遅ればせながら試してみたので記事として残します。 Function callingにおける一連の流れを順次説明してまとめていますので、皆様の理解に繋がると嬉しいです。 Chat API自体が初耳という方は過去の記事「OpenAIのChat API(

                                                                                OpenAIによるChat APIの新機能Function callingをPythonで使ってみた - Qiita
                                                                              • あなたのAIエージェントはどっち派? MCPツールをLLMに渡す2つの方法 - ENECHANGE Developer Blog

                                                                                VPoTの岩本 (iwamot) です。*1 昨日の水本さんの記事を読み、AIの登場による変化を前向きにとらえる姿勢が重要だと感じました。登場前に戻ることはもうできないですものね。 今日のぼくの記事では、AIエージェントを「使う」ではなく「作る」視点での「AIエージェント活用」を取り上げます。AIエージェントの実装に興味のある方の参考になれば幸いです。 フォーカスするのは「AIエージェントからMCPツールの情報をどのようにLLMに渡すか」についてです。MCPツールの情報を渡さなければ、LLMはツールが呼び出せる(AIエージェントに呼び出しを依頼できる)ことを知らないまま回答してしまいます。 以下、ご自身がAIエージェント(例:Cline、Claude Code)やAIエージェントSDK(例:Strands Agents、OpenAI Agents SDK)を実装するとしたらどうするか考えな

                                                                                  あなたのAIエージェントはどっち派? MCPツールをLLMに渡す2つの方法 - ENECHANGE Developer Blog
                                                                                • Context Engineering - Short-Term Memory Management with Sessions from OpenAI Agents SDK

                                                                                  Prerequisites Before running this cookbook, you must set up the following accounts and complete a few setup actions. These prerequisites are essential to interact with the APIs used in this project. Step0: OpenAI Account and OPENAI_API_KEY Purpose: You need an OpenAI account to access language models and use the Agents SDK featured in this cookbook. Action: Sign up for an OpenAI account if you don

                                                                                    Context Engineering - Short-Term Memory Management with Sessions from OpenAI Agents SDK