並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 79件

新着順 人気順

llm function calling examplesの検索結果1 - 40 件 / 79件

  • Code Mode: the better way to use MCP

    It turns out we've all been using MCP wrong. Most agents today use MCP by directly exposing the "tools" to the LLM. We tried something different: Convert the MCP tools into a TypeScript API, and then ask an LLM to write code that calls that API. The results are striking: We found agents are able to handle many more tools, and more complex tools, when those tools are presented as a TypeScript API r

      Code Mode: the better way to use MCP
    • MCP ツールのコンテキスト圧迫の問題とその解決策

      MCP の普及に伴い、多数のツール定義が LLM のコンテキストを圧迫する課題が浮上しています。本記事では Progressive disclosure(段階的開示)による最小限の情報提供、MCP を使ったコード実行によるツール呼び出しの効率化、単一の検索ツールによるコンテキスト削減など、実践的な解決策を Claude Skills や Cloudflare Code Mode の事例とともに解説します。 Model Context Protocol (MCP) は登場からおよそ 1 年が経過し、事実的な標準としての地位を確立しつつあります。MCP が普及するにつれて、MCP ツールの課題点も浮き彫りになってきました。その課題の 1 つが、1 つのタスクを達成するために多くのツールが読み込まれ、結果として多くのコンテキストが消費されてしまうという問題です。 前提として、LLM がタスクの達

        MCP ツールのコンテキスト圧迫の問題とその解決策
      • Llama 3.2 の使い方|npaka

        以下の記事が面白かったので、簡単にまとめました。 ・Llama can now see and run on your device - welcome Llama 3.2 1. Llama 3.2 Vision 11B・90B1-1. Llama 3.2 Vision 11B・90B「Llama 3.2 Vision 11B・90B」は、Metaがリリースした最も強力なオープンマルチモーダルモデルです。画像+テキストのプロンプトでは英語のみ、テキストのみのプロンプトでは英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語をサポートしています。 コンテキスト長は128kトークンで、画像を含む可能性のある複数ターンの会話が可能です。ただし、モデルは単一の画像に注目する場合に最適に機能するため、transformers実装では入力で提供された最後の画像のみに注

          Llama 3.2 の使い方|npaka
        • Writing effective tools for AI agents—using AI agents

          Published Sep 11, 2025 Agents are only as effective as the tools we give them. We share how to write high-quality tools and evaluations, and how you can boost performance by using Claude to optimize its tools for itself. The Model Context Protocol (MCP) can empower LLM agents with potentially hundreds of tools to solve real-world tasks. But how do we make those tools maximally effective? In this p

            Writing effective tools for AI agents—using AI agents
          • The Prompt Engineering Playbook for Programmers

            Developers are increasingly relying on AI coding assistants to accelerate our daily workflows. These tools can autocomplete functions, suggest bug fixes, and even generate entire modules or MVPs. Yet, as many of us have learned, the quality of the AI’s output depends largely on the quality of the prompt you provide. In other words, prompt engineering has become an essential skill. A poorly phrased

              The Prompt Engineering Playbook for Programmers
            • GitHub - modelcontextprotocol/servers: Model Context Protocol Servers

              Official integrations are maintained by companies building production ready MCP servers for their platforms. 21st.dev Magic - Create crafted UI components inspired by the best 21st.dev design engineers. 2slides - An MCP server that provides tools to convert content into slides/PPT/presentation or generate slides/PPT/presentation with user intention. ActionKit by Paragon - Connect to 130+ SaaS inte

                GitHub - modelcontextprotocol/servers: Model Context Protocol Servers
              • neue cc - Claudia - Anthropic ClaudeのC# SDKと現代的なC#によるウェブAPIクライアントの作り方

                AI関連、競合は現れども、性能的にやはりOpenAI一強なのかなぁというところに現れたAnthropic Claude 3は、確かに明らかに性能がいい、GPT-4を凌駕している……!というわけで大いに気に入った(ついでに最近のOpenAIのムーブが気に入らない)ので、C#で使い倒していきたい!そこで、まずはSDKがないので非公式SDKを作りました。こないだまでプレビュー版を流していたのですが、今回v1.0.0として出します。ライブラリ名は、Claudeだから、Claudiaです!.NET全般で使えるのと、Unity(Runtime/Editor双方)でも動作確認をしているので、アイディア次第で色々活用できると思います。 GitHub - Cysharp/Claudia 今回のSDKを作るにあたっての設計指針の一番目は、公式のPython SDKやTypeScript SDKと限りなく似せる

                • 最近の7B小型日本語LLMはエージェントになれるのか?

                  あれから進化的マージの試行錯誤を繰り返していたが、ついに相当性能が高そうなモデルが生まれた。 Umievo-itr012-Gleipnir-7Bである。 umiyuki/Umievo-itr012-Gleipnir-7B · Hugging Face ElyzaTasks100の平均スコアは3.91に達して、ついにGPT-3.5Turboのスコア(3.88)を上回ってしまった。 ただし、スコアが上回ってるからと言って性能が勝ってるというわけではない事に注意して欲しい。例えるなら、身長が高いからと言って強いわけではないみたいな話である。 前回の記事では少し誤解を招く書き方だったかもしれないが、そもそも7Bの小型日本語LLMなんてのは基本的にドアホである。間違ってもChatGPTの代わりに使えるなんて考えてはいけない。 とは言うものの、単なるドアホではスコア3.91なんて取れないという事もまた

                    最近の7B小型日本語LLMはエージェントになれるのか?
                  • Mastraのサンプル集を一気に紹介する|yoshi8

                    こんにちは!吉波です! 最近、AIエージェントフレームワーク「Mastra」が彗星の如く現れました。衝撃的だったのが、こちらの画像↓ 「LangChainのGithubスター数を抜き去った…!?」 これを見た時、衝撃が走りました。LLMを用いたアプリケーション開発を効率的に行うためのライブラリとして、長らく君臨してきたLangChainが抜かされたという事実は、全世界が驚いたはずです。 そこで今回は、これからMastraを触ってみたいと思う方に向けて、Mastra公式が出しているサンプル集を紹介します!AIエージェントの作り方を学びたいなと思っている方はぜひ最後までご覧ください! また、今日から「吉波塾」というAI駆動開発やAIエージェントに関する講義を開始したので、そちらも良ければご参加ください!☺️ 次回の開催はX(@yoshi8__)より共有します! Mastraのサンプル集今回の記

                      Mastraのサンプル集を一気に紹介する|yoshi8
                    • 【AWS re:Invent 2024】人の労力を減らす、Amazon Bedrock Agents によるイベントドリブンエージェント作成を体験してきた - カミナシ エンジニアブログ

                      はじめに カミナシでソフトウェアエンジニアとしてサービスの開発をしている Taku (X アカウント) です。 ラスベガスで開催されている AWS re:Invent に2年振り2回目の参加をしています。 その中で役立ちそうなワークショップに参加することが出来たので、今回はそのご紹介をさせていただきたいと思います。 公開されているワークショップのリンクも載せているため、最後までご覧いただけると幸いです。 参加したワークショップ 今回参加したのは「Automating technical support and workflows with Amazon Bedrock Agents」というワークショップです。 セッションの詳細 Applying generative AI and agentic solutions to event-driven workflows gives enter

                        【AWS re:Invent 2024】人の労力を減らす、Amazon Bedrock Agents によるイベントドリブンエージェント作成を体験してきた - カミナシ エンジニアブログ
                      • A Guide to Claude Code 2.0 and getting better at using coding agents

                        Table of Contents Intro Why I wrote this post The Map is not the territory This post will help you keep up in general Lore time - My Love and Hate relationship with Anthropic Timeline My Codex era Anthropic Redemption Arc + Regaining mandate of heaven Why Opus 4.5 feels goooood This post is not sponsored Pointers for the technically-lite The Evolution of Claude Code Quality of life improvements in

                          A Guide to Claude Code 2.0 and getting better at using coding agents
                        • Everything Wrong with MCP

                          In just the past few weeks, the Model Context Protocol (MCP) has rapidly grown into the de-facto standard for integrating third-party data and tools with LLM-powered chats and agents. While the internet is full of some very cool things you can do with it, there are also a lot of nuanced vulnerabilities and limitations. In this post and as an MCP-fan, I’ll enumerate some of these issues and some im

                            Everything Wrong with MCP
                          • What makes Claude Code so damn good (and how to recreate that magic in your agent)!?

                            What makes Claude Code so damn good (and how to recreate that magic in your agent)!?/ vivek / 2025-08-21 Claude Code is the most delightful AI agent/workflow I have used so far. Not only does it make targeted edits or vibe coding throwaway tools less annoying, using Claude Code makes me happy. It has enough autonomy to do interesting things, while not inducing a jarring loss of control like some o

                              What makes Claude Code so damn good (and how to recreate that magic in your agent)!?
                            • Top AI Stories of 2024! Agents Rise, Prices Fall, Models Shrink, Video Takes Off, Acquisitions Morph

                              Dear friends, Is AI progressing rapidly? Yes! But while the progress of underlying AI technology has indeed sped up over the past 2 years, the fastest acceleration is in applications. Consider this: GPT-4 was released March 2023. Since then, models have become much faster, cheaper, sometimes smaller, more multimodal, and better at reasoning, and many more open weight versions are available — so pr

                              • WebLLM | Home

                                Overview We have been seeing amazing progress in generative AI and LLM recently. Thanks to the open-source efforts like LLaMA, Alpaca, Vicuna and Dolly, we start to see an exciting future of building our own open source language models and personal AI assistant. These models are usually big and compute-heavy. To build a chat service, we will need a large cluster to run an inference server, while c

                                • ChatGPT Gets Its “Wolfram Superpowers”!

                                  Since this was written, OpenAI has discontinued ChatGPT Plugins and launched custom GPTs. Find more information about the Wolfram GPT here: https://gpt.wolfram.com. In Just Two and a Half Months… Early in January I wrote about the possibility of connecting ChatGPT to Wolfram|Alpha. And today—just two and a half months later—I’m excited to announce that it’s happened! Thanks to some heroic software

                                    ChatGPT Gets Its “Wolfram Superpowers”!
                                  • Agents

                                    Intelligent agents are considered by many to be the ultimate goal of AI. The classic book by Stuart Russell and Peter Norvig, Artificial Intelligence: A Modern Approach (Prentice Hall, 1995), defines the field of AI research as “the study and design of rational agents.” The unprecedented capabilities of foundation models have opened the door to agentic applications that were previously unimaginabl

                                      Agents
                                    • Weird Lexical Syntax

                                      I just learned 42 programming languages this month to build a new syntax highlighter for llamafile. I feel like I'm up to my eyeballs in programming languages right now. Now that it's halloween, I thought I'd share some of the spookiest most surprising syntax I've seen. The languages I decided to support are Ada, Assembly, BASIC, C, C#, C++, COBOL, CSS, D, FORTH, FORTRAN, Go, Haskell, HTML, Java,

                                        Weird Lexical Syntax
                                      • GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)

                                        🚀 Effortless Setup: Install seamlessly using Docker or Kubernetes (kubectl, kustomize or helm) for a hassle-free experience with support for both :ollama and :cuda tagged images. 🤝 Ollama/OpenAI API Integration: Effortlessly integrate OpenAI-compatible APIs for versatile conversations alongside Ollama models. Customize the OpenAI API URL to link with LMStudio, GroqCloud, Mistral, OpenRouter, and

                                          GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)
                                        • AI Agents are disrupting automation: Current approaches, market solutions and recommendations

                                          Investor POV AI Agents are disrupting automation: Current approaches, market solutions and recommendations The mainstreaming of AI tools has ignited hope for dramatic productivity improvements for knowledge workers and consumers alike. Transformer-based Large Language Models (LLMs) have demonstrated AI capabilities that are transforming workflows with new automation approaches. In the article belo

                                            AI Agents are disrupting automation: Current approaches, market solutions and recommendations
                                          • April 2025 (version 1.100)

                                            Version 1.108 is now available! Read about the new features and fixes from December. Release date: May 8, 2025 Update: Enable Next Edit Suggestions (NES) by default in VS Code Stable (more...). Update 1.100.1: The update addresses these security issues. Update 1.100.2: The update addresses these issues. Update 1.100.3: The update addresses these issues. Downloads: Windows: x64 Arm64 | Mac: Univers

                                              April 2025 (version 1.100)
                                            • Function calling is now available in Azure OpenAI Service | Microsoft Community Hub

                                              Over the last couple of years, we’ve learned just how powerful language models can be.  With the advent of gpt-35-turbo and gpt-4, these models can accomplish more than ever before and we're seeing customers be successful with an array of new scenarios. While these models are incredibly useful on their own, you can accomplish even more by integrating them with other systems and tools. Function cal

                                              • Real-world gen AI use cases from the world's leading organizations | Google Cloud Blog

                                                AI is here, AI is everywhere: Top companies, governments, researchers, and startups are already enhancing their work with Google's AI solutions. Published April 12, 2024; last updated October 9, 2025. Automotive & Logistics Business & Professional Services Financial Services Healthcare & Life Sciences Hospitality & Travel Manufacturing, Industrial & Electronics Media, Marketing & Gaming Public Sec

                                                  Real-world gen AI use cases from the world's leading organizations | Google Cloud Blog
                                                • LLM Powered Autonomous Agents

                                                  Date: June 23, 2023 | Estimated Reading Time: 31 min | Author: Lilian Weng Building agents with LLM (large language model) as its core controller is a cool concept. Several proof-of-concepts demos, such as AutoGPT, GPT-Engineer and BabyAGI, serve as inspiring examples. The potentiality of LLM extends beyond generating well-written copies, stories, essays and programs; it can be framed as a powerfu

                                                  • Llama 3.1 の新機能と使い方|npaka

                                                    以下の記事が面白かったので、簡単にまとめました。 ・Llama 3.1 - 405B, 70B & 8B with multilinguality and long context 1. Llama 3.1 の新機能「Llama 3.1」の新機能は、次のとおりです。 ・128Kトークンの大きなコンテキスト長 (元は8K) ・多言語 ・ツールの使用 ・4,050億パラメータの非常に大きな高密度モデル ・より寛容なライセンス 8B、70B、405Bの3つのサイズがあり、それぞれにベースモデルと指示モデルがあります。128Kトークンのコンテキスト長と、英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語を含む8つの言語をサポートしています。「Llama 3.1」は、より長いコンテキストに役立つ効率的な表現である「Grouped-Query Attention」(

                                                      Llama 3.1 の新機能と使い方|npaka
                                                    • How to Fix Your Context

                                                      Mitigating & Avoiding Context Failures Following up on our earlier post, “How Long Contexts Fail”, let’s run through the ways we can mitigate or avoid these failures entirely. But before we do, let’s briefly recap some of the ways long contexts can fail: Context Poisoning: When a hallucination or other error makes it into the context, where it is repeatedly referenced. Context Distraction: When a

                                                        How to Fix Your Context
                                                      • Home

                                                        typia is a transformer library converting TypeScript types to runtime function. If you call one of the typia function, it would be compiled like below. This is the key concept of typia, transforming TypeScript type to a runtime function. The typia.is<T>() function is transformed to a dedicated type checker by analyzing the target type T in the compilation level. This feature enables developers to

                                                          Home
                                                        • The State of Python 2025: Trends and Survey Insights | The PyCharm Blog

                                                          This is a guest post from Michael Kennedy, the founder of Talk Python and a PSF Fellow. Welcome to the highlights, trends, and key actions from the eighth annual Python Developers Survey. This survey is conducted as a collaborative effort between the Python Software Foundation and JetBrains’ PyCharm team. The survey results provide a comprehensive look at Python usage statistics and popularity tre

                                                            The State of Python 2025: Trends and Survey Insights | The PyCharm Blog
                                                          • Scikit-LLM: Sklearn Meets Large Language Models

                                                            Scikit-LLM is a game-changer in text analysis. It combines powerful language models like ChatGPT with scikit-learn, offering an unmatched toolkit for understanding and analyzing text. With scikit-LLM, you can uncover hidden patterns, sentiment, and context in various types of textual data, such as customer feedback, social media posts, and news articles. It brings together the strengths of languag

                                                              Scikit-LLM: Sklearn Meets Large Language Models
                                                            • January 2024 (version 1.86)

                                                              Update 1.86.2: The update addresses these issues. Update 1.86.1: The update addresses these issues. Downloads: Windows: x64 Arm64 | Mac: Universal Intel silicon | Linux: deb rpm tarball Arm snap Welcome to the January 2024 release of Visual Studio Code. There are many updates in this version that we hope you'll like, some of the key highlights include: Per-window zoom levels - Adjust the zoom leve

                                                                January 2024 (version 1.86)
                                                              • OpenAI APIのFunction callingで関数が呼ばれる条件を確認してみた | DevelopersIO

                                                                はじめに 新規事業統括部の山本です。 今日(6/14)にOpenAI APIがアップデートがされました。この記事では、新しい機能であるFunction callingについての簡単な解説と、渡したfunctionが実行される条件について簡単に調べてみた内容について記載します。 早速、中村さんが速報の記事を書かれているので、他のアップデートの詳細が気になる方はこちらをご覧ください。 https://dev.classmethod.jp/articles/openai-api-gpt-update-ver-0613/ Function callingとは 通常、LLMは学習したときのデータに含まれている内容以外に関する質問や指示には回答できません。その対策として、ChatGPT pluginsやLangChainのToolなどのように、外部から情報を取得できるようにすることで、そういった質問や

                                                                  OpenAI APIのFunction callingで関数が呼ばれる条件を確認してみた | DevelopersIO
                                                                • 【論文詳解】RestGPT: ユーザ指示からRESTful APIを実行する新たなLLMエージェント

                                                                  はじめに 初めまして、株式会社Carnotでインターンをしている長谷川と申します。 Carnotでは、LLMを活用し日々の業務フローの効率化や自動化をするためのソリューション「Promptflow」の開発を行っています。 上記のようなワークフローを作成する際には、SlackやGmail、Notionなど各サービスのAPIを連携させていく必要があります。しかし、そのような開発にはプログラミングの知識が必須で、非エンジニアにとってAPIを用いたシステムを作成することは難しいと思われます。そこで、今回は言語のみの指示から複数のAPIを呼び出すことが可能なRestGPTという手法を調査しました。 例えば音楽配信サービスを使う中で「YOASOBIが出した最新のアルバムを自分のプレイリストに追加する」という作業をしたい時、これを自分で行うのは面倒である上、コードを書いて自動化するのも非エンジニアにとっ

                                                                    【論文詳解】RestGPT: ユーザ指示からRESTful APIを実行する新たなLLMエージェント
                                                                  • LangChainによるCode Interpreterオープンソース実装を試す|はまち

                                                                    先日OpenAIからChatGPTのCode Interpreter が公開されて、その能力の高さと応用範囲の広さから界隈で大騒ぎになっていますね。そのコードインタープリター機能をFunction Callingを利用して、LangChainでオープンソース実装を行う試みも始まったようです。 というわけで、さっそく簡単に試食してみます。なお、技術的な詳細などはLangChainの公式ブログやGitHubリポジトリなどをご参照ください。 概要LangChainエージェント用のPythonコード実行環境として、専用のJupyterカーネルであるCodeBoxを準備し、その中でPythonインタープリターを実行することで機能を実現しているとのことです。 入力ファイルとして、ローカルのファイルも指定できますが、URLを指定するとネット情報も取得できる。 Google Colabで試してみる簡単にG

                                                                      LangChainによるCode Interpreterオープンソース実装を試す|はまち
                                                                    • Eliciting Reasoning in Language Models with Cognitive Tools

                                                                      Eliciting Reasoning in Language Models with Cognitive Tools Brown Ebouky IBM Research - Zurich ETH Zurich Brown.Ebouky@ibm.com Andrea Bartezzaghi IBM Research - Zurich abt@zurich.ibm.com Mattia Rigotti IBM Research - Zurich mrg@zurich.ibm.com Abstract The recent advent of reasoning models like OpenAI’s o1 was met with excited spec- ulation by the AI community about the mechanisms underlying these

                                                                      • 自律言語エージェントを構築するためのフレームワーク Agents を試す|npaka

                                                                        自律言語エージェントを構築するためのフレームワーク「Agents」を試してみたので、まとめました。 1. Agents の概要「Agents」は、自律言語エージェントを構築するためのフレームワークです。 「コンフィグファイル」に自然言語で設定を記述するだけで、「言語エージェント」または「マルチエージェントシステム」をカスタマイズし、「ターミナル」「Gradio」「バックエンドサービス」にデプロイできます。 「Agents」と他の既存の言語エージェントフレームワークとの大きな違いの1つは、「SOP」(Standard Operation Process) を通じて言語エージェントにきめ細かい制御とガイダンスを提供できることです。「SOP」はタスク全体のサブゴール / サブタスクを定義し、ユーザーが言語エージェントのきめ細かいワークフローをカスタマイズできるようにします。 2. Agentsが

                                                                          自律言語エージェントを構築するためのフレームワーク Agents を試す|npaka
                                                                        • OpenAI Agents SDK

                                                                          Intro Intro Quickstart Examples Documentation API Reference OpenAI Agents SDK The OpenAI Agents SDK enables you to build agentic AI apps in a lightweight, easy-to-use package with very few abstractions. It's a production-ready upgrade of our previous experimentation for agents, Swarm. The Agents SDK has a very small set of primitives: Agents, which are LLMs equipped with instructions and tools Han

                                                                          • GitHub - huggingface/candle: Minimalist ML framework for Rust

                                                                            These online demos run entirely in your browser: yolo: pose estimation and object recognition. whisper: speech recognition. LLaMA2: text generation. T5: text generation. Phi-1.5, and Phi-2: text generation. Segment Anything Model: Image segmentation. BLIP: image captioning. We also provide some command line based examples using state of the art models: LLaMA v1, v2, and v3: general LLM, includes t

                                                                              GitHub - huggingface/candle: Minimalist ML framework for Rust
                                                                            • #Slack から #ChatGPT を使うためのアプリを作り込んで公開してみた Party on Slack - Qiita

                                                                              Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? そういえばQiitaに書いてないなと思いたち、この一ヶ月くらいの取り組みについて紹介します。 何を作ったのか Slackから OpenAI APIを通して ChatGPTを使うためのアプリ 誰でもインストールできるようにしてあります アプリ詳細 Party on Slack DeepL Translator TimeLine 以上の3つです。TimeLineだけ、すべての公開チャンネルにjoinする機能と、特定のチャンネルに投稿を転送する機能を有していますが、基本的に全部同じアプリです。 複数アプリをリリースしている理由は後述しますが、

                                                                                #Slack から #ChatGPT を使うためのアプリを作り込んで公開してみた Party on Slack - Qiita
                                                                              • prompts.chat - AI Prompts Community

                                                                                --- name: skill-creator description: Guide for creating effective skills. This skill should be used when users want to create a new skill (or update an existing skill) that extends Claude's capabilities with specialized knowledge, workflows, or tool integrations. license: Complete terms in LICENSE.txt --- # Skill Creator This skill provides guidance for creating effective skills. ## About Skills S

                                                                                  prompts.chat - AI Prompts Community
                                                                                • A Developer’s Guide to Building Scalable AI: Workflows vs Agents | Towards Data Science

                                                                                  When to use hybrid approach This aligns with how systems like WorkflowGen, n8n, and Anthropic’s own tooling advise building — stable pipelines with scoped autonomy. Real Examples: Hybrid in Action A Minimal Hybrid Example Here’s a scenario I used with LangChain and LangGraph: Workflow stage: fetch support tickets, embed & search Agent cell: decide whether it’s a refund question, a complaint, or a

                                                                                    A Developer’s Guide to Building Scalable AI: Workflows vs Agents | Towards Data Science