GenAIに関するshingokのブックマーク (3)

  • LangChain on Vertex AI(プレビュー) で Vertex AI Search と RAG する

    LangChain のマネージドサービスの発表 Google Cloud Next'24 Las Vegas で LangChain on Vertex AI(プレビュー) が発表されました。 LangChain on Vertex AI は Reasoning Engine と呼ばれるマネージドサービスを利用して、LangChain を利用した AI エージェントを効率よく開発、運用できることを目指しています。 なお Reasoning Engine 自体は、LangChain はもちろん他のフレームワークや DIY した Python アプリケーションもサポートしています。 何をしてくれるのか これまで LangChain アプリケーションを例えば Cloud Run で実装する場合、以下のような知識が必要となっていました。 コンテナと Cloud Run(インフラ)、セキュリティやス

    LangChain on Vertex AI(プレビュー) で Vertex AI Search と RAG する
  • LangChain のメモリについて | Hakky Handbook

    概要​ このページでは、LangChain におけるメモリの概要に加えて、以下に挙げる基的な使用方法も紹介します。 メモリの初期化 メモリへの書き込み メモリのクリア メモリを保存する方法 メモリをチェーンに組み込む方法 また、これらを説明するにあたって、以下の2種類メモリの使用例を紹介します。 ConversationBufferMemory ConversationBufferWindowMemory その他のメモリの詳細については紹介を省きますので、必要であれば公式ドキュメントを参照して情報を補ってください。 LangChain におけるメモリ​ メモリは「ユーザーと言語モデルの対話を"記憶"するためのクラス」の総称です。 この"記憶"を言語モデルに渡すことで「"記憶"の内容を反映した応答を返す」ことができるようになります。 LangChain では、いくつかの種類のメモリが用意さ

  • RAGs powered by Google Search technology, Part 1 | Google Cloud Blog

    When a large language model (LLM) doesn’t have enough information or has no contextual knowledge of a topic, it is more likely to hallucinate and provide inaccurate or false responses. Developers are increasingly excited about generative AI and Retrieval Augmented Generation (RAG) — an architecture pattern that combines LLMs with backend information retrieval from other information sources. This a

    RAGs powered by Google Search technology, Part 1 | Google Cloud Blog
  • 1