並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 176 件 / 176件

新着順 人気順

langchainの検索結果161 - 176 件 / 176件

  • GitHub - aws-samples/jp-rag-sample: このソリューションは AWS 上で検索用途の Retrieval Augmented Generation (RAG) を構築するサンプルコードです。

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

      GitHub - aws-samples/jp-rag-sample: このソリューションは AWS 上で検索用途の Retrieval Augmented Generation (RAG) を構築するサンプルコードです。
    • LangChain Expression Language (LCEL) | 🦜️🔗 Langchain

      LangChain Expression Language, or LCEL, is a declarative way to easily compose chains together. LCEL was designed from day 1 to support putting prototypes in production, with no code changes, from the simplest “prompt + LLM” chain to the most complex chains (we’ve seen folks successfully run LCEL chains with 100s of steps in production). To highlight a few of the reasons you might want to use LCEL

        LangChain Expression Language (LCEL) | 🦜️🔗 Langchain
      • LangChainソースコードリーディング/テーマ:OpenAI Chat APIを「ちゃんと」使う

        発表の中で紹介しているUdemy講座:https://www.nextskill.co.jp/courses === 大規模言語モデル(LLM)を使ったアプリケーション開発のフレームワークとして、「LangChain」が注目を集めています。 LangChainは毎日のように新バージョンがリリースされており、とても変化の激しいOSSです。 そのため、LangChainをしっかり使おうとすると、LangChain自体のソースコードを読むことも重要になります。 この勉強会では、そんなLangChainのソースコードリーディングを実施します。 OSSのソースコードリーディングは、何か目的があったほうがスムーズです。 GPTを使ったアプリケーション開発では、OpenAIの「Chat API」を使うのが定番ですが、実はLangChainでOpenAIのChat APIを「ちゃんと」使うには、LangC

          LangChainソースコードリーディング/テーマ:OpenAI Chat APIを「ちゃんと」使う
        • Auto-Eval of Question-Answering Tasks

          By Lance Martin Context LLM ops platforms, such as LangChain, make it easy to assemble LLM components (e.g., models, document retrievers, data loaders) into chains. Question-Answering is one of the most popular applications of these chains. But it is often not always obvious to determine what parameters (e.g., chunk size) or components (e.g., model choice, VectorDB) yield the best QA performance.

            Auto-Eval of Question-Answering Tasks
          • LangChainのメモリ・キャッシュにMomentoを使う | DevelopersIO

            Introduction サーバレスな高速キャッシュやスケーラブルなメッセージングを提供するMomento。 このblogでも何度か記事にしてますが、 さまざまなライブラリやプロダクトと連携可能です。 今回は、ChatGPTをはじめとするLLMの拡張/実装を効率よくおこなうためのライブラリ、 LangChainと連携させてみましょう。 また、DevIOのMomento関連記事はここにあるので、 これらもご確認ください。 LangChain? LangChainは(ChatGPTなど)LLMを利用したアプリを構築するためのフレーワークです。 現在(2023年4月)は、PythonとTypeScript用のライブラリが公開されています。 LangChainを使うことで、LLMへのプロンプト構築を効率よく作成できたり、 キャッシュを用いた処理の高速化や履歴管理などが可能になります。 LangCh

              LangChainのメモリ・キャッシュにMomentoを使う | DevelopersIO
            • LangChain のデバッグツール Tracing を試す|npaka

              2. Tracingの起動今回はDockerが必要なので、「Google Colab」でなくローカルで実行します。 (1) Dockerのインストール。 (2) Pythonの仮想環境 で「langchain」をインストール。 $ pip install langchain(3) 「langchain-server」を起動。 Dockerが起動してる状態で実行してください。 $ langchain-server成功すると、「Tracing」のURLが表示されます。 ➜ Local: http://localhost:4173/(4) ブラウザで表示されたURLを開く。 セッション一覧が表示されます。「セッション」は、トレースをグループ化したものになります。 (5) 「Session default」をクリック。 セッション情報が表示されます。まだ何も実行されてません。 3. LangCha

                LangChain のデバッグツール Tracing を試す|npaka
              • Generative Agents の論文を読んで、その仕組みをドキュメント問い合わせシステムとして応用してみた - Qiita

                Generative Agents の論文を読んで、その仕組みをドキュメント問い合わせシステムとして応用してみたOpenAI箱庭ChatGPTlangchain モチベーション こちらで紹介されていた「Generative Agents: Interactive Simulacra of Human Behavior」という論文を読み、大変興味を持ちました。 AIによって生成された25名のエージェント(ChatGPT: gpt3.5-turbo)が人間の行動をシミュレートして、社会的な行動が創発されたそうです。 この論文での創発の定義は以下でした。 情報拡散(Information Diffusion) 関係性の記憶(Relationship memory) 調整(Coordination) また、このような創発を起こすためのエージェントの仕組みは、以下あたりでと解釈しました。 外部記憶(

                  Generative Agents の論文を読んで、その仕組みをドキュメント問い合わせシステムとして応用してみた - Qiita
                • LangChainでPDFを“学習”→OpenAI APIごとに性能を評価しました

                  はじめに 株式会社cross-Xの古嶋です。DX戦略の立案やデータ・AI活用の支援をしています。 今回は、OpenAI APIのgpt-4及びgpt-3.5-turboの性能について比較してみたので、その検証結果をご紹介します。かなり簡易的な検証結果であり、より踏み込んだ精査が求められるところもありますが、面白い示唆が得られたので記事としてまとめた次第です。 では、早速ですが下図を御覧ください。 これは、最近話題のLangChainを利用してOpenAIのAPIにコンテキスト内学習(ICL: In Context Learning)を実行し、PDF内に記載されている情報を抽出して回答を得るという手法を用いた場合の「出力までの時間」を比較したものです。 その中で、以下の3つの軸で「出力までの時間」を評価しています。 API: gpt-4またはgpt-3.5-turboの場合で比較 回答文:

                    LangChainでPDFを“学習”→OpenAI APIごとに性能を評価しました
                  • Amazon SageMaker、Amazon OpenSearch Service、Streamlit、LangChain を使った質問応答ボットの構築 | Amazon Web Services

                    Amazon Web Services ブログ Amazon SageMaker、Amazon OpenSearch Service、Streamlit、LangChain を使った質問応答ボットの構築 エンタープライズ企業における生成系 AI と大規模言語モデル (LLM) の最も一般的な用途の 1 つは、企業の知識コーパスに基づいた質問応答です。Amazon Lex は AI ベースのチャットボットを構築するためのフレームワークを提供します。事前学習済みの基盤モデル (Foundation Models; FM) は、さまざまなトピックに関する要約・テキスト生成・質問応答などの自然言語理解 (NLU) タスクではうまく機能しますが、幻覚やハルシネーションと言われる不正確な情報を含まない回答を提供するのが難しい、もしくは、学習データに含まれない内容に関する質問へ回答することはできません。

                      Amazon SageMaker、Amazon OpenSearch Service、Streamlit、LangChain を使った質問応答ボットの構築 | Amazon Web Services
                    • LangChainとFunction callingで天気予報APIを呼び出す

                      はじめに ChatGPTの肝になる機能の一つが Function Calling です。これはLLMで質問の内容を解析して、必要な関数を呼び出すというものです。 「必要な関数」 をどのように判定しているかといえば、それは関数の説明文から判断します。今までもキーワードに応じて何かの処理をするようなプログラムは良くあったと思いますが、LLMの強力な言語処理能力を使うことで 「呼び出すべき関数」 と 「適切な引数」 を自動的に判定してくれます。SiriやAlexaみたいなツールが簡単に作れちゃいます。 今回はそのFunction callingをLangChain経由で使って天気予報APIをAITuberの「紅月れん」から呼べるようにしたので、その試行錯誤等を載せておきたいと思います。 なお、AITuber自体の作り方やLLMに関する全般的な話は下記の記事で取り扱っていますので、良ければ読んでみ

                        LangChainとFunction callingで天気予報APIを呼び出す
                      • ChatGPTと自社データを連携させたチャットボットを作る (なんちゃってAgent実装,コードあり)|株式会社エクスプラザ(公式)

                        ChatGPTと自社データを連携させたチャットボットを作る (なんちゃってAgent実装,コードあり) こんにちは、@_mkazutaka と申します。 ChatGPT流行ってますね。とはいえいざ社内サービスで提供してみようとするとデータをどうやってChatGPTに渡すか苦労するかと思います(しています)。 今回は、弊社が提供しているサービスとChatGPTをうまく連携させ、自社のデータを使ってチャットボットのPoCを作ってみたのでその実装についての紹介です。最後にコードを載せています(なお会社からの許可はとっていない) データ元紹介する前にデータ元のサービスを紹介します。弊社は、ChatGPTを使ったPoCの他にEXPLAZAと呼ばれるアウトドアアイテムの口コミアプリを作っています。お客さまは、画像・レビュー本文等の口コミをEXPLAZAに投稿することができます。例えば以下はとあるテント

                          ChatGPTと自社データを連携させたチャットボットを作る (なんちゃってAgent実装,コードあり)|株式会社エクスプラザ(公式)
                        • RAG From Scratch: Part 1 (Overview)

                          LLMs are a powerful new platform, but they are not always trained on data that is relevant for our tasks. This is where retrieval augmented generation (or RAG) comes in: RAG is a general methodology for connecting LLMs with external data sources such as private or recent data. It allows LLMs to use external data in generation of their output. This video series will build up an understanding of RAG

                            RAG From Scratch: Part 1 (Overview)
                          • ChatGPT+LangChain| Elasticsearch公式ドキュメントのQ&Aを作ってみる

                            はじめに この記事は、情報検索・検索技術 Advent Calendar 2023 の 11日目の記事です。 本記事では、最新のElasticsearchの公式ドキュメントの内容を元にQ&Aを行うチャットボットを、LLMとLangChain、さらには、Elasticsearchのベクトル検索機能を使って作成したので、実現方法や利用した技術について紹介します。 また、RAGを使ったWikipediaのQ&Aを作った話が、同アドベントカレンダーの4日目の記事で紹介されているので、気になる方はご参照ください。 概要 LLMの問題点 OpenAIが提供するGPTや他の大規模言語モデル(LLM)の登場によって、簡単な質問に対しても優れた回答を得られるようになり、知識の取得や整理が容易になりました。一方で、2023年12月現在、一般的に提供されているGPTのバージョン3.5では、2022年1月以降の情

                              ChatGPT+LangChain| Elasticsearch公式ドキュメントのQ&Aを作ってみる
                            • LangChainを使ったRAGをElyza 7bを用いて試してみた|alexweberk

                              はじめに今回はLangchain を使った RAG (Retrieval Augmented Generation) を、LLM には ELYZA-japanese-Llama-2-7b-instruct を用いて、試してみました。 RAG を用いることで、仮にLLMに質問に対する知識がなかったとしても、質問に対して関連性の高い文章をデータベースから抽出し、より適切な答えを導き出せることを期待します。 使ったコードに関しては、記事の後にColabのリンクを付け加えましたので是非ご活用ください。 そもそもRAGって何?RAGは "Retrieval Augmented Generation" の略で、大規模言語モデル(LLM)を用いてテキストを生成する際に、インプットに関連性の高い文章を抽出し(Retrieval Augmented)、インプットの一部に挿入してテキスト生成(Generati

                                LangChainを使ったRAGをElyza 7bを用いて試してみた|alexweberk
                              • 10 Ways to Improve the Performance of Retrieval Augmented Generation Systems

                                The Quick-start Guide Isn’t Enough“Retrieval augmented generation is the process of supplementing a user’s input to a large language model (LLM) like ChatGPT with additional information that you (the system) have retrieved from somewhere else. The LLM can then use that information to augment the response that it generates.” — Cory Zue LLMs are an amazing invention, prone to one key issue. They mak

                                  10 Ways to Improve the Performance of Retrieval Augmented Generation Systems
                                • Google | 🦜️🔗 LangChain

                                  All functionality related to Google Cloud Platform and other Google products. LLMs​Google Generative AI​Access GoogleAI Gemini models such as gemini-pro and gemini-pro-vision through the GoogleGenerativeAI class. Install python package.

                                    Google | 🦜️🔗 LangChain

                                  新着記事