並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 172件

新着順 人気順

Langchainの検索結果81 - 120 件 / 172件

  • 【GPT】今日から使えるOSSライブラリまとめ - Qiita

    はじめまして、sonesuke( https://twitter.com/sonesuke ) です。 LLMのニュースを追っかけ続けたので、これからキャッチアップする人用にまとめておきます。 各手法の説明を読む前に、「これだけは知っとけ用語」を読んでおくと意味がわかります。知っている人は飛ばしてください。 これだけは知っとけ用語 Retriever LLMの入力として含められる情報には上限があります。GPT-3.5で4k トークン。GPT-4でも、8K, 32Kトークンです。十分大きくなったとはいえ、本一冊分とかは無理なわけです。これをうまくチャンクに分けて、質問から、チャンク化された文章を検索できるようにしたものを、Retriverと言います。 詳しくは、下記のページが参考になります。 埋め込み(Embeddings) 簡単にいうと、LLMを使って、入力を固定長のベクトル表現にすること

      【GPT】今日から使えるOSSライブラリまとめ - Qiita
    • Langchain・Semantic Kernel・guidanceでエージェント機能を実装して比較してみた。 - Qiita

      guidance guidanceではエージェント機能は自前で実装する必要があります。 semantic kernelやlanchainではエージェント機能が用意されています。 自前実装可能なので実装の幅は広そうですが、今回は以下のような流れで実装しました。 実行すべき関数のリストをJSON形式で作成=実行計画 実行計画の作成を行うプロンプトにより実装しています。 JSONに含まれる関数を順に呼び出す pythonの関数として実装しています。 ユーザ側でプロンプトやpythonの関数を作成できるため、自由度が高いなと感じました。 あとはあまり抽象化されていないため、機能拡張・メンテナンスなどが楽そうです。 ①ソースコード全文 ソースコード全文 import os import json import guidance # テキスト生成モデル text_llm = guidance.llms

        Langchain・Semantic Kernel・guidanceでエージェント機能を実装して比較してみた。 - Qiita
      • 【後編】LangChainによるGenerative Agents実装まとめ|mah_lab / 西見 公宏

        前回に引き続きGenerative Agentsです。今回はこちらのドキュメントの内容を中心に見ていきます。 GenerativeAgentクラスの概要この実装で中心的な役割を果たしているのがGenerativeAgentクラスです。 class GenerativeAgent(BaseModel): """A character with memory and innate characteristics."""このクラスは以下のパラメータを持っており、これがキャラクターの振る舞いや言動に影響を与えます。 name (str): キャラクターの名前。 age (int): キャラクターの年齢。 traits (str): キャラクターの固有の特徴。「anxious, likes design」といった値を設定する。 status (str): キャラクターの現在の状態。 reflecti

          【後編】LangChainによるGenerative Agents実装まとめ|mah_lab / 西見 公宏
        • LangChainまたまた新機能: OpenAI Multi Functions Agent|はまち

          中の人がどうなってるのか、にわかに信じられませんが、またまたLangChainの新機能が発表されていました😮 今度の新機能は、「Multi Functions Agent」です。 Agentが1ステップで複数の関数呼び出しをするという機能です。 Tools定義google検索ツール(SerpAPI)を tools に登録します。 llm = ChatOpenAI(temperature=0, model="gpt-3.5-turbo-0613") search = SerpAPIWrapper() # Define a list of tools offered by the agent tools = [ Tool( name="Search", func=search.run, description="Useful when you need to answer questions

            LangChainまたまた新機能: OpenAI Multi Functions Agent|はまち
          • ChatGPTみたいなアプリが簡単に作れるLangChainがすごすぎ - まったり勉強ノート

            3月 28, 2023 / 最終更新日時 : 3月 28, 2023 Shuji Suzuki (shu) プログラミング 最近話題のChatGPT界隈ですが、そんなChatGPTみたいなアプリを簡単に作れるとしたら?そんな夢のようなライブラリである「LangChain」をこの前同僚に教えてもらったので、実際に使ってみました。 実際に使ってみたら想像よりもはるかに「どうなってるの!?」と思うことが多々あるすごいライブラリだったので、紹介したくて使い方をまとめてみました。 今回はLangChainのドキュメントの中で一番衝撃だった以下の質問に対する答えを出すコードをGoogle Colabで実行する手順を示します。 "Who is Leo DiCaprio's girlfriend? What is her current age raised to the 0.43 power?" コード

              ChatGPTみたいなアプリが簡単に作れるLangChainがすごすぎ - まったり勉強ノート
            • GitHub - chroma-core/chroma: the AI-native open-source embedding database

              A tag already exists with the provided branch name. Many Git commands accept both tag and branch names, so creating this branch may cause unexpected behavior. Are you sure you want to create this branch?

                GitHub - chroma-core/chroma: the AI-native open-source embedding database
              • Llama Hub

                Our integrations include utilities such as Data Loaders, Agent Tools, Llama Packs, and Llama Datasets. We make it extremely easy to connect large language models to a large variety of knowledge & data sources. Use these utilities with a framework of your choice such as LlamaIndex, LangChain, and more. Learn More

                • 話題の ChatGPT + LangChain で ChatGPT が学習していない最新の OSS ソースコードを爆速でウォークスルーする - Qiita

                  話題の ChatGPT + LangChain で ChatGPT が学習していない最新の OSS ソースコードを爆速でウォークスルーするOpenAIgpt-3ChatGPTlangchain記事投稿キャンペーン_ChatGPT はじめに ソースコードの解読には、高度な技能や時間が必要です。しかし、ChatGPT を使えば、ソースコードの解読を迅速に行うことができます。 ChatGPT は、OpenAI が開発した言語モデルの一つであり、大量の自然言語のコーパスを学習しています。そのため、一定期間内の OSS のソースコードを解析する際には、最新の知識を反映させることができません。しかし、LangChain を使用することで、最新の OSS のソースコードに対しても問い合わせを行うことができます。 この記事では、ChatGPT と LangChain を用いて、最新の OSS ソースコード

                    話題の ChatGPT + LangChain で ChatGPT が学習していない最新の OSS ソースコードを爆速でウォークスルーする - Qiita
                  • チャットAIの開発入門書「OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門」、ボーンデジタルが発売

                    ボーンデジタルがチャットAIを開発するための入門書「OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門」を発売 チャットAIの仕組みから独自システムへの組み込み方まで解説 サンプルのほとんどは「Google Colaboratory」で実行できる ボーンデジタルは2023年7月2日、チャットAIの開発入門書「OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門」を発売しました。今回発売されたものは書籍版で、PDF版は6月23日にすでに発売されています。 ★緊急先行発売★ PDFダウンロード版 OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門https://t.co/Leg747E4nV 6/23~6/30まで1週間限定で「5章 LlamaIndex」の全文PDFを公

                      チャットAIの開発入門書「OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門」、ボーンデジタルが発売
                    • Slack Botによるヘルプページの情報参照:LLMを組み合わせたRAGの実装

                      はじめに 株式会社スマートショッピングで SRE をしているbiosugar0です。 先日、2023 年 10 月 23 日に行われた Amazon Bedrock Prototyping Camp というイベントに参加してきました。 そこでは Bedrock の紹介から始まり、Claude のハンズオン、実際にプロダクト反映を目指したプロトタイピングを行うという内容でした。 今回はその中で検証、実装した社内用の Slack bot に弊社ヘルプページを参照させる事例を紹介します。 Retrieval Augmented Generation (RAG) Retrieval Augmented Generation (RAG)は、LLM を用いた処理において、外部のデータベースや文書と連携してより精度の高い回答を生成するためのテクニックです。 GPT-4 のような LLM は、学習に使用さ

                        Slack Botによるヘルプページの情報参照:LLMを組み合わせたRAGの実装
                      • LLM連携アプリの開発を支援するライブラリ LangChain の使い方 (1) - LLMとプロンプト・チェーン|npaka

                        「LangChain」の「LLMとプロンプト」「チェーン」の使い方をまとめました。 1. LangChain「LangChain」は、「LLM」 (Large language models) と連携するアプリの開発を支援するライブラリです。 「LLM」という革新的テクノロジーによって、開発者は今まで不可能だったことが可能になりました。しかし、「LLM」を単独で使用するだけでは、真に強力なアプリケーションを作成するのに不十分です。本当の力は、それを他の計算や知識と組み合わせた時にもたらされます。「LangChain」は、そのようなアプリケーションの開発をサポートします。 2. LangChainの支援領域「LangChain」の支援領域は、次の5つがあります。 (1) LLM とプロンプト (2) チェーン (3) データ拡張生成 (4) エージェント (5) メモリ (6) 評価 (BE

                          LLM連携アプリの開発を支援するライブラリ LangChain の使い方 (1) - LLMとプロンプト・チェーン|npaka
                        • はじめに|サクッと始めるプロンプトエンジニアリング【LangChain / ChatGPT】

                            はじめに|サクッと始めるプロンプトエンジニアリング【LangChain / ChatGPT】
                          • 【Langchain】EmbeddingでChatGPTに自分専用Q&Aをしてもらう方法

                            Langchain, GPT-3.5-turbo, Google Search API を使って、ChatGPT相当のエンジンにGoogle 検索を読み込ませ、日本語で回答を得ることに成功しました。これは一般公開される、いわゆるコンシューマー向けのサービスとしては便利ですが、逆に ChatGPT や Bing と同様に、一般的になってしまいます(検索するドメインを絞ることはできますが)。 業務でチャットボットを使う場合にはどちらかというと、自社の知見に特化したチャットボットが欲しいと思うのではないでしょうか。顧客向けにしろ、自社向けにしろ、どこの誰が書いたか分からない一般的な答えを出しても、顧客価値につながりませんからね。 ということで、LangchainとGPT-3.5-turbo API, それから OpenAPI のEmbedding API を使って、ドキュメントを埋め込んだQ&A

                              【Langchain】EmbeddingでChatGPTに自分専用Q&Aをしてもらう方法
                            • LangChain

                              Applications that can reason. Powered by LangChain. LangChain’s suite of products supports developers along each step of the LLM application lifecycle.

                                LangChain
                              • GitHub - langflow-ai/langflow: ⛓️ Langflow is a dynamic graph where each node is an executable unit. Its modular and interactive design fosters rapid experimentation and prototyping, pushing hard on the limits of creativity.

                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                  GitHub - langflow-ai/langflow: ⛓️ Langflow is a dynamic graph where each node is an executable unit. Its modular and interactive design fosters rapid experimentation and prototyping, pushing hard on the limits of creativity.
                                • LangChainの使い方 LlamaIndex編 - Qiita

                                  1. はじめに 注: 初稿を書いたあとでLlamaIndexのAPI仕様が大きく変更されました。そのため、記載のソースコードや準備するデータの仕様に関する記述をllama-index==0.6.8に準拠したものに変更いたしました。 本記事は、下記の続編です。 前回紹介しきれなかった外部データを利用した回答精度の向上など、さらなるLLM(大規模言語モデル)の利活用をLangChainなどで実現する手段を解説していきます。 2. LlamaIndexの使い方 LangChainを使って外部データをLLMに受け渡す方法のひとつとして、LlamaIndex(旧名称: GPT Index)を使う方法を紹介します。 LlamaIndexとは、主に以下2点の機能を担うライブラリです。 LLMに外部情報を受け渡すための構造化データを作成する 作成した構造化データを踏まえて質問に回答するようLLMに要求する

                                    LangChainの使い方 LlamaIndex編 - Qiita
                                  • LlamaIndex v0.5 クイックスタートガイド|npaka

                                    「GPT Index」が「LlamaIndex」にリブランディングされました。 ・LlamaIndex v0.5.12 【最新版の情報は以下で紹介】 1. LlamaIndex「LlamaIndex」は、専門知識を必要とする質問応答チャットボットを簡単に作成できるライブラリです。同様のチャットボットは「LangChain」でも作成できますが、「LlamaIndex」は、コード数行で完成してお手軽なのが特徴になります。 2. ドキュメントの準備はじめに、チャットボットに教える専門知識を記述したドキュメントを用意します。 今回は、マンガペディアの「ぼっち・ざ・ろっく!」のあらすじのドキュメントを用意しました。 ・bocchi.txt 3. Colabでの実行Google Colabでの実行手順は、次のとおりです。 (1) パッケージのインストール。 # パッケージのインストール !pip in

                                      LlamaIndex v0.5 クイックスタートガイド|npaka
                                    • 実践LangChain!RAGによる特化LLMシステムの作り方 - Qiita

                                      はじめに ChatGPTを初めとした大規模言語モデル (LLM) が話題になっており、ちょっとした質問でも非常に優れたアウトプットが得られるようになりました。一方、ChatGPTを企業で使用する場合、社内情報をChatGPTは保持していないため、社内情報について答えられないという課題があり、社内特化LLMシステムを構築する必要があります。 特化システムを作るためには、こちらの記事でも紹介している通りLLMそのものをfine tuningする方法と、LangChainを使ってVector MatchingするRetrieval Augmented Generation (RAG) の2つがあります。ただ、LLMのfine tuningは非常に大きな計算コストとデータセット構築作業が必要になります。 本記事では、RAGによる特化LLMシステムの構築方法を紹介します。本記事内で使用するLLMはG

                                        実践LangChain!RAGによる特化LLMシステムの作り方 - Qiita
                                      • ConversationalRetrievalChain で LangChain の QA にチャット履歴実装

                                        LangChain では、 EmbeddingAPI を使って vector search とその結果を LLM に与えて QA Bot を構築したり、あるいは ChatGPT のような記憶・履歴(Memory)を実装して、自然な対話を行う便利なモジュールが揃っています。しかし、この Memory のオブジェクトを QA チェーンに入れても、それだけでは上手く動作しません。 そこで今回は、まず QA を一つの Chain オブジェクトで実行する方法と、さらに Memory を実装するについてです。 参考:https://python.langchain.com/en/latest/modules/chains/index_examples/vector_db_qa.html 参考:https://python.langchain.com/en/latest/modules/chains/i

                                          ConversationalRetrievalChain で LangChain の QA にチャット履歴実装
                                        • LangChain の ChatGPTの新しい抽象化|npaka

                                          「LangChain Blog」の記事「Chat Models」が面白かったので、簡単にまとめました。 1. はじめに先週、OpenAI は「ChatGPT」をリリースしました。いくつかの大きな改善が加えられており、最も顕著なのは、10 倍安く、はるかに高速であることした。しかし、まったく新しい APIも付属しています。このAPIのラッパーをすばやく作成して、「LangChain」の通常の LLM のように使用できるようにしましたが、これは新しいメッセージベースのAPIを十分に活用できていませんでした。 この記事では、新しいAPIとChatGPTだけでなく、将来のすべてのチャットモデルに対応するため、「LangChain」をどのように適応させるかについて説明します。 ・Python版のドキュメント ・JS/TS版のドキュメント 2. なぜ新しい抽象化が必要か「ChatGPT」のAPIは内部

                                            LangChain の ChatGPTの新しい抽象化|npaka
                                          • 生成AIアプリ開発フレームワークLangChain入門

                                            はじめに 本稿の目的 本稿は、LangChainという技術について関心を持った方へ向けて、できるだけ前提知識を想定せずに入門するための情報を提供する、という目的で書かれています。 主な対象読者 本稿は、主な対象読者として、ビジネスアプリケーションに携わる開発者、アーキテクトを想定しています。そのため、テーマの学術的・理論的な側面よりも、実務的な側面(例えば、生成AIを活用したサービス開発からの観点)に比重を置いています。 本稿の構成 本稿の構成は、以下の3ステップからなっています。 生成AI活用アプリケーション概要 ベクトル検索 LangChain入門 生成AI活用アプリケーション概要 初めに、生成AIを活用したアプリケーションとはどのようなものかについて見ていきます。 生成AIアプリケーションの内部では、ユーザーが入力したデータが、LLM、大規模言語モデルへのインプットとして扱われます。

                                              生成AIアプリ開発フレームワークLangChain入門
                                            • LangChain + Claude3(Amazon Bedrock) を動かしてみる 〜ローカル実行編〜 - Qiita

                                              はじめに こんにちは!yu-Matsuです! 皆さんBedrockしていますでしょうか。 3/4に Anthropic Claude3 が発表され、界隈はかなり盛り上がっていますね! 特に Claude 3 Opus はあのGPT4を性能で上回るとのことですから、注目されています。それだけでなく、画像処理が出来るのもかなり魅力的です! そんな Claude3 ですが、つい先日、PythonのLangChainからBedrockのClaude3 Sonnetが呼び出せるようになったので、試してみたいと思います! なお、記事のタイトルを「ローカル実行編」としているのは、今回で検証した内容を LINE Bot に乗せて、画像情報も取り扱える AI LINE Bot を作ろうとしているからです。こちらは実装次第別途記事にしたいと思いますので、お楽しみに! 事前準備 まずは何よりもBedrock上で

                                                LangChain + Claude3(Amazon Bedrock) を動かしてみる 〜ローカル実行編〜 - Qiita
                                              • GitHub - langchain-ai/rag-from-scratch

                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                  GitHub - langchain-ai/rag-from-scratch
                                                • 【GPT】LangChainで自動で分析してくれる簡易ツールを作った備忘録 - Qiita

                                                  背景 巷で流行りの生成AIを実験してみたく、csv形式のローデータを入れると自動で分析ステップを踏みながら出力してくれるツールを作りました。 グラフを表示するところなどで未完成な部分はありますが、大枠ができたので備忘録として公開します。 完成物 csvデータを入れるとこのように動作します。データはタイタニック号乗客者の生存状況に関するものです。 参考 使用技術 Python LangChain →LangChainAgentというものを使いました。 Streamlit →PythonベースでWebアプリケーションを作成するためのフレームワーク。簡易的なものであればめちゃくちゃ便利です。 コード import streamlit as st from langchain.llms import OpenAI from langchain.agents import create_pandas

                                                    【GPT】LangChainで自動で分析してくれる簡易ツールを作った備忘録 - Qiita
                                                  • GitHub - kyrolabs/awesome-langchain: 😎 Awesome list of tools and projects with the awesome LangChain framework

                                                    GPTCache: A Library for Creating Semantic Cache for LLM Queries Gorilla: An API store for LLMs LlamaHub: a library of data loaders for LLMs made by the community EVAL: Elastic Versatile Agent with Langchain. will execute all your requests. Auto-evaluator: a lightweight evaluation tool for question-answering using Langchain Langchain visualizer: visualization and debugging tool for LangChain workfl

                                                      GitHub - kyrolabs/awesome-langchain: 😎 Awesome list of tools and projects with the awesome LangChain framework
                                                    • LangChainを使ってOSINTを自動化する

                                                      OSINTとは OSINT (Open-Source Intelligence) とは、インターネット上に公にアクセス可能な情報を収集・分析することを指します。サイバーセキュリティの分野では特に重要な役割を担い、情報収集から脅威の評価・対策までの業務をサポートします。特に、LinuxコマンドやGoogle検索を使った情報収集はOSINTにおいて重要な手法のひとつです。 LangChainとは langchainは、LLMと外部リソース(データソースや言語処理系等)を組み合わせたアプリケーションの開発支援を目的としてHarrison Chaseさんが開発したPythonライブラリです。langchainを使うことで、OSINTにおいて人間が手作業で行うタスクを自動化することができます。 例えば、サイバー脅威に関連する情報を収集したい場合、langchainを使って自然言語からLinuxコマン

                                                        LangChainを使ってOSINTを自動化する
                                                      • Welcome to LangChain — 🦜🔗 LangChain 0.0.161

                                                        Getting Started Quickstart Guide Modules Models LLMs Getting Started Generic Functionality How to use the async API for LLMs How to write a custom LLM wrapper How (and why) to use the fake LLM How (and why) to use the the human input LLM How to cache LLM calls How to serialize LLM classes How to stream LLM and Chat Model responses How to track token usage Integrations AI21 Aleph Alpha Azure OpenAI

                                                        • 【OpenAI】Function calling について LangChain Agent と比較しながら試してみた - Qiita

                                                          はじめに こんにちは! yu-Matsu と申します。 皆さん、楽しいChatGPTライフをお過ごしでしょうか。昨今の生成AIを取り巻く環境の変化は目まぐるしく、私もついていくのが大変です... そんな中、ChatGPT界隈では先日、Function callingというものが発表されて話題になりましたね! Function calling and other API updates 発表されてから10日以上経ってしまったため、既にバリバリ使いこなしている方には釈迦に説法かと思いますが、今回はこの Function calling について、LangChainと比較しながら試した内容を記事にしたいと思います。これから Function calling に触れる方の参考になれば幸いです。 本記事で紹介しているコードについて、Google Colaboratory を用意していますので、実際に

                                                            【OpenAI】Function calling について LangChain Agent と比較しながら試してみた - Qiita
                                                          • GitHub - hwchase17/langchain-hub

                                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                              GitHub - hwchase17/langchain-hub
                                                            • LangChain Templatesを使って研究アシスタントをサクッと作る - Ahogrammer

                                                              最近はLangChain Templates[1]を使って、LangChainベースのアプリケーションを簡単に作れるようになっていますが、テンプレートのリストを何気なく見ていたら、GPT Researcher[2]を基にした研究アシスタント[3]のテンプレートがありました。仕事で似たような機能を作っていたこともあり、興味深い内容だったので、この記事ではLangChain Templatesを活用し、研究アシスタントを作成する方法を紹介します。 研究アシスタントの例。リサーチクエスチョンを入力すると、文書を検索し、レポートにまとめてくれる。 研究アシスタントのアーキテクチャは以下のとおりです。大きくは、ユーザーが入力したリサーチクエスチョンから検索クエリを生成し、各クエリで検索した情報を要約してから結合し、レポートを生成しています。要約を結合してからLLMに入力しているため、それなりに長いコ

                                                                LangChain Templatesを使って研究アシスタントをサクッと作る - Ahogrammer
                                                              • LMQL is a programming language for LLM interaction. | LMQL

                                                                LMQL is a programming language for LLMs. Robust and modular LLM prompting using types, templates, constraints and an optimizing runtime. @lmql.query def meaning_of_life(): '''lmql # top-level strings are prompts "Q: What is the answer to life, the \ universe and everything?" # generation via (constrained) variables "A: [ANSWER]" where \ len(ANSWER) < 120 and STOPS_AT(ANSWER, ".") # results are dir

                                                                  LMQL is a programming language for LLM interaction. | LMQL
                                                                • TypeScript 版 LangChain で自前の情報を元に対話できるようにする

                                                                  基本こちらのものを TS で書き直した感じです。 ▼ langchain.js のドキュメント ▼ サンプルコードがあるレポジトリ Vectorstore の準備 まず事前準備として Vectorstore なる AI のためのデータベースを用意します。 いくつかオプションがあるのですが、私は違いがよく分かっていないのでこちらの pinecone というものを使ってみました。 正直私は具体的に Vector とはなんなのか分かっておらず雰囲気で使っています。pinecone が解説記事を書いているのでこちらを読んでみると良いかもしれません。 こちらに SignUp した後、Indexes を選択し、 Create Your First Index! をクリックします。 Index Name に適当な名前をつけ、Dimensions には 1536 と入力します。なんか1536次元のベクトル

                                                                    TypeScript 版 LangChain で自前の情報を元に対話できるようにする
                                                                  • そもそもLangChainは何に使えるのか 3つの基礎的なモジュール「Models」「Prompts」「Chains」から考える活用事例

                                                                    LLMに狙いどおりの動きをさせるために内部で使われているプロンプトエンジニアリングから、LangChainに入門する「プロンプトエンジニアリングから始めるLangChain入門」。ここで大嶋勇樹氏が登壇。さらに、LangChainのモジュールである「Models」「Prompts」「Chains」について解説します。前回はこちらから。 解説前の注意事項 大嶋勇樹氏:というところで本題のLangChainに入っていこうと思いますが、LangChainに入門する前に(お話しすることとして)、一概にLangChainを使うべきと主張する意図はないです。 LangChainは日々大きなアップデートが入るライブラリになっていて、破壊的変更が入る可能性は低くないと思います。なので、ここからの入門はあくまでLangChainの紹介・説明で、使うべき、使わないべきといった意見とは別とさせてください。使う、

                                                                      そもそもLangChainは何に使えるのか 3つの基礎的なモジュール「Models」「Prompts」「Chains」から考える活用事例
                                                                    • LangChainのAgentをLlamaIndexのインデックスでカスタマイズしてみた | DevelopersIO

                                                                      こんちには。 データアナリティクス事業本部 インテグレーション部 機械学習チームの中村です。 LangChainのAgentのカスタムツールとして、LlamaIndexのインデックスを使用する方法を紹介します。 LangChainとは LlamdaIndexと同様、大規模言語モデル(LLM)をカスタマイズして使用するためのライブラリです。 カスタムされたチャットボットやエージェントを作成することが可能で、以下のような様々な外部リソース・サービスと連携可能です。 OpenAIのChatCompletion(要するにChatGPT) Google検索やOpenSearchなどの検索サービス Hugging Faceのエコシステム Pythonのコーディングをするツール 例:PyTorchでhogehogeな構成のサンプルコードを教えて、など SQLデータベースなどのリソース 例:hogehog

                                                                        LangChainのAgentをLlamaIndexのインデックスでカスタマイズしてみた | DevelopersIO
                                                                      • GitHub - e2b-dev/awesome-ai-agents: A list of AI autonomous agents

                                                                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                          GitHub - e2b-dev/awesome-ai-agents: A list of AI autonomous agents
                                                                        • LangChain のための wandb 入門|npaka

                                                                          この入門記事は、「Weights & Biases」のご支援により提供されています。 1. wandb「wandb」 (Weights & Biases) は、機械学習の実験管理とモデルのパフォーマンス追跡に特化したツールです。 「wandb」の主な機能は、次のとおりです。 ・トレース : 実験のパラメータ、評価指標、出力を自動的にログに記録します。これにより、異なる実験間での比較や分析が容易になります。 ・視覚化: 学習中の評価ををリアルタイムで視覚化します。これにより、モデルのパフォーマンスを直感的に理解しやすくなります。 ・ハイパーパラメータの最適化 : 異なるハイパーパラメータのセットを試して、最適な組み合わせを見つけるのに役立ちます。 ・チームコラボレーション : チームメンバー間で実験のデータを共有し、コラボレーションを促進します。 ・統合 : 主要な機械学習フレームワーク (

                                                                            LangChain のための wandb 入門|npaka
                                                                          • ChatGPT x LangChain で独自ドキュメントのベクターストア検索をチューニングする - GMOインターネットグループ グループ研究開発本部

                                                                            D.Mです。 ChatGPT を開発の現場で活かしていくためにベクターストア活用の方法を検証しました。 結論ファースト A. ベクターストアに入れる元ネタドキュメントの抽出 ⇒ unstructured が使えるかも B. ベクターストアに入れる元ネタドキュメントのチャンク分け ⇒ タイトル。キーワードをメタデータで付加 C. ベクターストアに投げる質問プロンプトの最適化 ⇒ 形態素またはキーワード抽出でプロンプトを精査 D. ベクターストア検索結果の精査 ⇒ ContextualCompressionRetriever による検索結果要約とDocumentCompressorPipeline による検索結果絞り込みがよさげ 「検索結果が質問に沿ったものか精査させる」タスクをChatGPTに担当してもらうことが私の業務課題には適しているのではという気付きがありました。 E. (おまけ)ベク

                                                                              ChatGPT x LangChain で独自ドキュメントのベクターストア検索をチューニングする - GMOインターネットグループ グループ研究開発本部
                                                                            • 実行例で理解する `Runnable` in `langchain` - Qiita

                                                                              概要 本記事は、langchain フレームワーク内の Runnable クラスに焦点を当て、その理解と活用を目的としています。langchain は、OpenAIやGeminiなどの一般的に知られている言語モデル(LLM)を使ったアプリケーション開発を支援するためのフレームワークであり、本記事では Runnable クラスの役割とそのメソッドの使い方に触れます。特に Runnableクラスが提供する標準的なインターフェース以外のメソッドについて実際のコード共に説明します。 本記事で触れている Runnable クラスのメソッド一覧 メソッド 概要 ページ内リンク

                                                                                実行例で理解する `Runnable` in `langchain` - Qiita
                                                                              • 「ソースコードと話す」未来の開発者体験

                                                                                まずはこちらをご覧ください。 これはソースコードと話している様子です。 驚くほど正確に、ソースコードの内容を把握できていることがわかります。これをコードと話すので、Talk2Codeと命名しました。 本記事では、LangChainを使って、Talk2Codeを実装する方法をご紹介します。 また、Talk2Codeをはじめとした未来の開発者体験を実現するサービス、「Supernova」のLPを本日公開しました。よろしければこちらもご覧ください。 対象読者 未来の開発者体験を知りたい方 前提知識 LangChainとは? LangChainとはLLMを用いたサービス開発のフレームワークです。 名前にも入っているChainは、LLM+定型プロンプトのようにLLMと何かを組み合わせた処理単位を指します。 より詳しくはこちらの記事がおすすめです。 Embeddingとは? Embedding(エンベ

                                                                                  「ソースコードと話す」未来の開発者体験
                                                                                • Azure OpenAI x LangChain サンプル集

                                                                                  import openai openai.api_type = "azure" openai.api_base = "https://<???>.openai.azure.com/" openai.api_version = "2023-03-15-preview" openai.api_key = "???" import openai from langchain.callbacks import get_openai_callback from langchain.chat_models import AzureChatOpenAI from langchain.schema import AIMessage, HumanMessage, SystemMessage with get_openai_callback() as cb: chat = AzureChatOpenAI( c

                                                                                    Azure OpenAI x LangChain サンプル集

                                                                                  新着記事