並び順

ブックマーク数

期間指定

  • から
  • まで

321 - 360 件 / 2941件

新着順 人気順

langchainの検索結果321 - 360 件 / 2941件

  • 【後編】LangChainによるGenerative Agents実装まとめ|mah_lab / 西見 公宏

    前回に引き続きGenerative Agentsです。今回はこちらのドキュメントの内容を中心に見ていきます。 GenerativeAgentクラスの概要この実装で中心的な役割を果たしているのがGenerativeAgentクラスです。 class GenerativeAgent(BaseModel): """A character with memory and innate characteristics."""このクラスは以下のパラメータを持っており、これがキャラクターの振る舞いや言動に影響を与えます。 name (str): キャラクターの名前。 age (int): キャラクターの年齢。 traits (str): キャラクターの固有の特徴。「anxious, likes design」といった値を設定する。 status (str): キャラクターの現在の状態。 reflecti

      【後編】LangChainによるGenerative Agents実装まとめ|mah_lab / 西見 公宏
    • ベクトルデータベース(Vector Database)/ベクトルストア(Vector Store)とは?

      ベクトルデータベース(Vector Database)/ベクトルストア(Vector Store)とは?:AI・機械学習の用語辞典 ベクトルデータベースとは、テキストなどのデータを数値ベクトル(埋め込み)として保存するデータベースを指す。「ベクトルストア」とも呼ばれる。ベクトル検索により、意味的に類似する情報を探せるのが特徴で、チャットAIのRAG構築に役立つ。本稿ではベクトル検索の機能を持つ代表的な製品の概要もそれぞれ簡単に紹介する。 連載目次 用語解説 生成系AI/自然言語処理におけるベクトルデータベース(Vector Database、ベクターデータベース、ベクトルDB)とは、主に単語や文章(テキスト)、画像、音声などの複雑なデータを、AI/機械学習/言語モデルが処理しやすい数値ベクトル表現として保存するデータベースのことである。この数値ベクトル表現は「埋め込み表現(Embeddin

        ベクトルデータベース(Vector Database)/ベクトルストア(Vector Store)とは?
      • LangChainまたまた新機能: OpenAI Multi Functions Agent|はまち

        中の人がどうなってるのか、にわかに信じられませんが、またまたLangChainの新機能が発表されていました😮 今度の新機能は、「Multi Functions Agent」です。 Agentが1ステップで複数の関数呼び出しをするという機能です。 Tools定義google検索ツール(SerpAPI)を tools に登録します。 llm = ChatOpenAI(temperature=0, model="gpt-3.5-turbo-0613") search = SerpAPIWrapper() # Define a list of tools offered by the agent tools = [ Tool( name="Search", func=search.run, description="Useful when you need to answer questions

          LangChainまたまた新機能: OpenAI Multi Functions Agent|はまち
        • はじめに|サクッと始めるプロンプトエンジニアリング【LangChain / ChatGPT】

            はじめに|サクッと始めるプロンプトエンジニアリング【LangChain / ChatGPT】
          • LangChainのAgent「zero-shot-react-description」はLLMとどう連携しているのか?調べた - まったり勉強ノート

            今回はこの中で紹介した例で出てきた「zero-shot-react-description」というAgentを使って以下の質問をしたときに内部でLLMとどういう連携をしているのか?を調べたのでそのまとめになります。 "Who is Leo DiCaprio's girlfriend? What is her current age raised to the 0.43 power?" 今回動作検証に用いたコードは以下の通りです。 import langchain from langchain.agents import load_tools from langchain.agents import initialize_agent from langchain.llms import OpenAI langchain.verbose = True llm = OpenAI(temperat

              LangChainのAgent「zero-shot-react-description」はLLMとどう連携しているのか?調べた - まったり勉強ノート
            • ChatGPTに「言っても良いことと悪いこと」を教えるツール NVIDIAがオープンソースコードで公開

              NVIDIAは2023年4月25日(米国時間)、ジェネレーティブAI(生成系AI)の正確性や適切性、文脈の整合性、安全性の確保を支援するツール「NeMo Guardrails」をオープンソースで公開した。同社は「ソフトウェア開発者がジェネレーティブAIアプリケーションを指導し、軌道に乗った優れたテキストの応答を作成するのに役立つ」としている。 「全てのLLMで動作するようにした」 多くの産業で、これからのAIアプリケーションを支えるエンジンである大規模言語モデル(LLM)とそれを使ったサービスの採用が進んでいる。NeMo Guardrailsには、そういったテキスト生成型AIアプリケーションを安全に利用するために必要なコードやドキュメントがまとめられている。 NVIDIAは「OpenAIの『ChatGPT』をはじめとする全てのLLMで動作するように設計した」と説明している。数行のコードを追

                ChatGPTに「言っても良いことと悪いこと」を教えるツール NVIDIAがオープンソースコードで公開
              • 【AOAI】RAGパイプラインの構築から評価フェーズまでの実装を一挙解説!【Ragas】 | SIOS Tech. Lab

                こんにちは、サイオステクノロジーの佐藤 陽です。 今回もRAGの構築に関する記事を書いていきます! これまでも何本かRAGに関して書いてきましたが、 今回はそれらの集大成として、PDFを外部情報とするRAGを実装し、Ragasで評価するところまで、ソースコードと合わせて一挙ご紹介していこうと思います。 これを読めば、今日からRAGが構築ができるような記事になってます! ぜひ最後までご覧ください! はじめに 今回一番伝えたいことは、「評価を回しながらRAGの開発を進めてください!!」 という事です。 RAGというと、どうしても回答を出す部分に注目が行きがちですが、評価の方も非常に大切です。 生成AIを利用していることもあり、RAGの回答内容は不安定であるため、人間が評価するのが難しいことがよく言われています。 更にRAGを構築する要素の設計は多岐にわたります。 プロンプト変更 チャンキング戦

                  【AOAI】RAGパイプラインの構築から評価フェーズまでの実装を一挙解説!【Ragas】 | SIOS Tech. Lab
                • 【GPT】今日から使えるOSSライブラリまとめ - Qiita

                  Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめまして、sonesuke( https://twitter.com/sonesuke ) です。 LLMのニュースを追っかけ続けたので、これからキャッチアップする人用にまとめておきます。 各手法の説明を読む前に、「これだけは知っとけ用語」を読んでおくと意味がわかります。知っている人は飛ばしてください。 これだけは知っとけ用語 Retriever LLMの入力として含められる情報には上限があります。GPT-3.5で4k トークン。GPT-4でも、8K, 32Kトークンです。十分大きくなったとはいえ、本一冊分とかは無理なわけです。これ

                    【GPT】今日から使えるOSSライブラリまとめ - Qiita
                  • ChatGPTみたいなアプリが簡単に作れるLangChainがすごすぎ - まったり勉強ノート

                    3月 28, 2023 / 最終更新日時 : 3月 28, 2023 Shuji Suzuki (shu) プログラミング 最近話題のChatGPT界隈ですが、そんなChatGPTみたいなアプリを簡単に作れるとしたら?そんな夢のようなライブラリである「LangChain」をこの前同僚に教えてもらったので、実際に使ってみました。 実際に使ってみたら想像よりもはるかに「どうなってるの!?」と思うことが多々あるすごいライブラリだったので、紹介したくて使い方をまとめてみました。 今回はLangChainのドキュメントの中で一番衝撃だった以下の質問に対する答えを出すコードをGoogle Colabで実行する手順を示します。 "Who is Leo DiCaprio's girlfriend? What is her current age raised to the 0.43 power?" コード

                      ChatGPTみたいなアプリが簡単に作れるLangChainがすごすぎ - まったり勉強ノート
                    • langchain/cookbook at master · langchain-ai/langchain

                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                        langchain/cookbook at master · langchain-ai/langchain
                      • Azure で ChatGPT × Cognitive Search を使ったエンタープライズサーチを実現 - Qiita

                        2023/3/10 に Azure OpenAI Serivce で ChatGPT(gpt-35-turbo) がプレビューで利用可能になったと発表されました。この発表と同時に、ChatGPT と Azure Cognitive Search を組み合わせてエンタープライズサーチを構築するためのアーキテクチャ、サンプルコードが提供されました。 この発表およびサンプルコードの重要なポイントは以下です。 ChatGPT(gpt-35-turbo)モデルでトレーニングされたデータに基づいてテキストを生成するのではなく、企業内に閉じたデータのみから生成する方法の例を示しています トークンの制限(4,096)の壁をできるだけ回避するための手法を紹介しています 「引用」をテキストに付加することで信頼できる応答を生成します 今回はこのサンプルコードを自分で理解しやすいようにカスタマイズしつつ内容を解説

                          Azure で ChatGPT × Cognitive Search を使ったエンタープライズサーチを実現 - Qiita
                        • RAGの評価:評価の必要性と問題点 - Beatrust techBlog

                          本ブログはこんな人におすすめ RAG (Retrieval Augmented Generation)を使ったアプリケーションを開発しているけど評価に関心のある人 LLM (Large Language Model)やRAGのハルシネーションをどう評価するのかに関心のある人 Ragas (RAGの評価ライブラリ:Retrieval augmented generation assessment)の挙動に興味がある人 こんにちは。私はBeatrustのML周辺のお手伝いをしている鈴木宏和と申します。今回はこれから3つのパートに分けて紹介させていただきますが、LLMの応用として特に注目を集めているRAG (Retrieval Augmented Generation)について、RAGの評価の必要性とアプローチ方法について考察しつつ、RAGに特化した評価ライブラリであるRagasの有用性に関する

                            RAGの評価:評価の必要性と問題点 - Beatrust techBlog
                          • Llama Hub

                            Our integrations include utilities such as Data Loaders, Agent Tools, Llama Packs, and Llama Datasets. We make it extremely easy to connect large language models to a large variety of knowledge & data sources. Use these utilities with a framework of your choice such as LlamaIndex, LangChain, and more. Learn More

                            • LangChain + Zapier Natural Language Actions (NLA)

                              We are super excited to team up with Zapier and integrate their new Zapier NLA API into LangChain, which you can now use with your agents and chains. With this integration, you have access to the 5k+ apps and 20k+ actions on Zapier's platform through a natural language API interface. This is extremely powerful and gives your LangChain agents seemingly limitless possibilities. Big shoutout to Mike

                                LangChain + Zapier Natural Language Actions (NLA)
                              • OpenAIよ。2022年1月より先の未来を見たくないか?【Azure OpenAI × LangChain ハンズオン】

                                目次 はじめに 今回作成するシステムの概要と前提条件 Azure Bing Search セットアップ Next.jsコーディング 動作確認 お片付け はじめに 2022年1月...。 このワードを聞いてピンときた方は日頃かなり勉強されているつよつよエンジニアに違いありません。 2022年1月というのは、OpenAIのGPT-3.5モデルの学習範囲の果てと言われています。 ということは...2022年1月以降の知識であれば... ファーー!! 2022年1月以降の情報であればマウント取り放題です! ... でも、マウントをとっていても仕方がありません。 私は以前、恩師よりマウントはドライブだけで充分です。という言葉を教えていただいたことを思い出しました。 では、2022年1月以降の情報でも適切に回答できるようにするにはどうすれば良いのか? そんな方々に向けたアンサーの一つをこの記事にまとめ

                                  OpenAIよ。2022年1月より先の未来を見たくないか?【Azure OpenAI × LangChain ハンズオン】
                                • GitHub - chroma-core/chroma: the AI-native open-source embedding database

                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                    GitHub - chroma-core/chroma: the AI-native open-source embedding database
                                  • The Powerful Conversational AI JavaScript Library | NLUX

                                    NLUX with ReactGenerative UI With Next.jsChatGPT-Inspired UIChat pop-up with shadcn/ui import { AiChat, useAsStreamAdapter } from '@nlux/react'; import '@nlux/themes/nova.css'; import { send } from './send'; import { user, assistantAvatar } from './personas'; export default () => { const adapter = useAsStreamAdapter(send, []); return ( <AiChat adapter={ adapter } personaOptions={{ assistant: { nam

                                      The Powerful Conversational AI JavaScript Library | NLUX
                                    • LLM・Copilot・Plugin・AI Orchestrationというワードが飛び交った「Microsoft Build 2023」 キーノートで発表された注目のアップデートは? | ログミーBusiness

                                      スタートアップの技術情報交換の場を提供することを目的として設立された「Microsoft Startup Tech Community」。「Microsoft Startup Tech Meetup #0 kick off」は、「Microsoft Build 2023」をテーマに開催されました。ここで登壇したのは、株式会社メルカリの大嶋悠司氏。生成系AI/LLM に関する注目アップデートについて発表しました。全2回。前半は、キーノートについて。 LLM・Copilot・Plugin・AI Orchestrationというワードが飛び交っていた「Microsoft Build 2023」大嶋悠司氏:では、「生成系AI/LLMに関する注目アップデート ~Build 2023編~」というタイトルでメルカリの大嶋が発表いたします。 私は、メルカリの生成系AIとLLMの専任のチームでテックリードを

                                        LLM・Copilot・Plugin・AI Orchestrationというワードが飛び交った「Microsoft Build 2023」 キーノートで発表された注目のアップデートは? | ログミーBusiness
                                      • CLIで動く開発AIエージェントの仕組みと特徴

                                        CLIから動作し、GitHubのIssueをもとにコードを解析・編集し、Pull Request(PR)を自動作成する「Issue Agent」を開発しました。 この記事では、Issue Agentの仕組みや特徴について紹介します。 Issue Agent 今回実装した開発AIエージェントはこちらです。 Issue Agentは、GitHubのIssueを読み取り、その内容に基づいてコードベースを自律的に解析し、 必要なファイルの作成や編集を行います。最終的には、自動でPRを作成する開発エージェントです。 例えば、こんなようなissueがあったとします。 たとえば、.gitignoreの設定が無秩序に増えてしまったために整理が必要だけれど、つい後回しにしていたIssueがあったとします。 これをIssue Agentに渡すことで、.gitignoreの内容や使っているフレームワークや利用技

                                          CLIで動く開発AIエージェントの仕組みと特徴
                                        • マイクロソフト、大規模言語モデルを選択すると数秒後にAzure上で試せる「Models as a Service」発表。従量課金制の推論API、ファインチューニングも可能。Ignite 2023

                                          マイクロソフト、大規模言語モデルを選択すると数秒後にAzure上で試せる「Models as a Service」発表。従量課金制の推論API、ファインチューニングも可能。Ignite 2023 マイクロソフトは現在開催中のイベント「Microsoft Ignite 2023」で、オープンソースの大規模言語モデルを、Microsoft Azure上でマネージドサービスとしてすぐに試せる「Models as a Service」を提供すると発表しました。 これにより開発者が簡単に大規模言語モデルのサービスを簡単かつ迅速に試し、アプリケーションの開発に利用できるようになります。 当初はMetaが公開している大規模言語モデルLlma 2をサポートし、今後MistralやJaisなど対応する大規模言語モデルの種類を拡大していく予定です。 カタログから選択すると数秒後には利用可能、従量課金制 Mod

                                            マイクロソフト、大規模言語モデルを選択すると数秒後にAzure上で試せる「Models as a Service」発表。従量課金制の推論API、ファインチューニングも可能。Ignite 2023
                                          • AI Agentがブラウザを操作する「Browser Use」を試してみよう!|marumarumaru

                                            「Browser Use」って何?先日、いつも通りXを徘徊してたらLangChainのアカウントから面白いポストを発見。 AI Agentがブラウザに簡単にアクセスできるっぽい。 🛜 Browser Use Make websites accessible for AI agents 🤖 Browser use is the easiest way to connect your AI agents with the browser Use any LLM supported by LangChain (e.g. gpt4o, gpt4o mini, claude 3.5 sonnet, llama 3.1 405b, etc.)https://t.co/x9hRshFEk5 pic.twitter.com/28n9697WJU — LangChain (@LangChainAI) D

                                              AI Agentがブラウザを操作する「Browser Use」を試してみよう!|marumarumaru
                                            • Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリース

                                              Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリースW&B Fully Connected 2023カンファレンスとAI Expo2023秋にて配布予定 Weights & Biases Japan株式会社(以下、W&B Japan)は本日、大規模言語モデル(LLM)の開発手法にフォーカスするホワイトペーパーの第2弾となる「LLMファインチューニングとプロンプトエンジニアリングのベストプラクティス」を公開しました。LLM導入を検討している企業向けに、自社の保持するリソースやビジネスモデルに合わせたLLM開発手法を選択するための実践的ガイドとなっており、第1弾の「LLMをゼロからトレーニングするためのベストプラクティス」を補完する形で、既存のLLMモデルを拡張する形で自社用途に適応する手法について解説しています。本ホワイトペーパーの印刷済み冊子

                                                Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリース
                                              • 生成AIサービス悪用が現実的な脅威に、プロンプトインジェクションで情報漏洩・侵入

                                                生成AI(人工知能)を組み込んだシステムへの「プロンプトインジェクション」の脅威が迫っている。プロンプトインジェクションは、英語のinjection(注入・注射)になぞらえた大規模言語モデル(LLM)への攻撃手法だ。悪意あるプロンプトを「注入」、すなわち入力することにより、機密情報を盗んだり連係するシステムへ侵入したりする。 生成AIを社内システムや社外向けのサービスに組み込む企業が増加している。2023年の生成AIブーム初期から、API(アプリケーション・プログラミング・インターフェース)経由でLLMを使い、システムに対話機能を実装する企業が多く見られた。 現在では、こうした対話機能において企業固有の内容を回答できるようにするため、企業のデータベース(DB)の情報をLLMが参照できるようにするRAG(Retrieval Augmented Generation、検索拡張生成)を実装する事

                                                  生成AIサービス悪用が現実的な脅威に、プロンプトインジェクションで情報漏洩・侵入
                                                • 「これまでのキャッチアップの遅さに比べると、今回の日本のスピードは悪くない」 日本のLLM開発が“国際的な競争力”を持つために必要なこと

                                                  日本CTO協会が主催の「Developer eXperience Day 2023」は、“開発者体験” をテーマに、その知見・経験の共有とそれに関わる方々のコミュニケーションを目的としたカンファレンスです。ここで登壇したのは、東京大学の教授である松尾豊氏。LLMの技術的な概要について解説するとともに、今後の技術的な進展について発表しました。全3回。3回目は、民間企業・行政におけるChatGPT活用例と、LLM開発において必要なことについて。 従来あり得ないぐらいのスピード感で国も動いている 松尾豊氏:(スライドを示して)こういった技術の進展、ChatGPTという社会現象に対して、国も非常に急ピッチで動いています。かつてこんなに、最新の技術の変化に対して動きが速いことがあったのだろうかと思うぐらい、民間の経営者やスタートアップも含めて、本当に国全体が非常に速い動きをしていて、私はすばらしいこ

                                                    「これまでのキャッチアップの遅さに比べると、今回の日本のスピードは悪くない」 日本のLLM開発が“国際的な競争力”を持つために必要なこと
                                                  • Fate Stay Nightで学ぶGraphRAG(GoogleColab付) - Sun wood AI labs.2

                                                    はじめに Graph retrieval augmented generation (Graph RAG) は、従来のベクター検索による情報検索手法に強力な手法として注目を集めています。Graph RAGは、データをノードと関係性で構造化するグラフデータベースの特性を活かし、検索された情報の深さと文脈性を高めます。 本記事では、人気アニメ「Fate Stay Night」のWikipediaデータを使って、LangChainとNeo4jを用いたGraph RAGの実践的な構築方法を初心者向けに解説します。 環境のセットアップ まずは必要なライブラリをインストールしましょう。 %%capture %pip install --upgrade --quiet langchain langchain-community langchain-openai langchain-experimenta

                                                      Fate Stay Nightで学ぶGraphRAG(GoogleColab付) - Sun wood AI labs.2
                                                    • Vercel AI SDK と mastra を使った AI Agent 開発 Tips

                                                      退屈な開発をサボりたくて 自律稼働する Devin のような LLM Agent を Vercel AI SDK, mastra 辺りのエコシステムで自前で作ってみていたので知見を紹介します。 開発用の Agent に限らず、これから TypeScript エコシステムで Agent を組もうとしている人の参考になれば幸いです。 具体的な SDK の利用方法などは扱わず、技術選定やハマりがちだったポイントにフォーカスして書いていきます。 TypeScript エコシステムでの SDK の選定 まず、プログラムから LLM をさわろうと思ったら SDK を使うのが手っ取り早いですが、複数のオプションがあります。 OpenAI や Anthropic など特定のプロバイダの SDK を使う 公式提供で安定していて使いやすい 一方、モデルを差し替えたり、特定の用途に限って別のプロバイダのモデルを

                                                        Vercel AI SDK と mastra を使った AI Agent 開発 Tips
                                                      • 実用的なLLMアプリケーションを作るための大規模アップデート 「LangChain 0.1」「LlamaIndex 0.10」になって変わったこと | ログミーBusiness

                                                        「LangChain」と「LlamaIndex」の違い布留川英一氏:OpenAIの新機能を話したので、次にLangChain 0.1とLlamaIndex 0.10について話そうかと思います。今回のOpenAI本にはこのLangChainとLlamaIndex(の話題)は入れませんでした。その1個前の本にはLangChainとLlamaIndexは入っていたんですが、今回の本には入れられませんでした。 年末ぐらいにLangChainとLlamaIndexの大規模アップデートがありました。より実用的なLLMアプリケーションを作るために大規模アップデートがあったので、本に載せるにはちょっと危ないかなと思って、今回はスルーしていました。 その大規模アップデートが、1月、2月ぐらいで両方とも完了したということで、これからどんどん使っていくのがいいかと思います。ということで、どんな感じのアップデート

                                                          実用的なLLMアプリケーションを作るための大規模アップデート 「LangChain 0.1」「LlamaIndex 0.10」になって変わったこと | ログミーBusiness
                                                        • 新モデルの追加と値下げ、ChatGPTのメモリ機能追加、「Sora」の発表… 『OpenAI GPT-4V/ChatGPT/GPTs 人工知能プログラミング実践入門』著者が語る、OpenAIの技術情報 | ログミーBusiness

                                                          布留川氏の自己紹介布留川英一氏:それでは始めます。OpenAI本出版記念として、今日は「OpenAI最新技術情報と技術情報キャッチアップ術」について話そうと思います。 最初に簡単に自己紹介をします。名前は布留川英一と申します。ハンドルネームはnpakaでやっています。株式会社ゼルペムに所属していますが、基本は個人でやっているようなものです。 プログラム歴は40年と言っていますが、1984年の「ファミリーベーシック」みたいなものから始めたので、ちょうど40年ということでキリがいい数字でした。インターネット歴は大学に入った1994年からなので、ちょうど30年です。 技術書歴は、最初に書いたのが、「iモード」のアプリの開発ができるようになった本なので、2001年からで、今のところだいたい年間2冊ペースで50冊ほど本を書いています。 自分は誰かというと、ハードウェアというよりはロボットを動かすAI

                                                            新モデルの追加と値下げ、ChatGPTのメモリ機能追加、「Sora」の発表… 『OpenAI GPT-4V/ChatGPT/GPTs 人工知能プログラミング実践入門』著者が語る、OpenAIの技術情報 | ログミーBusiness
                                                          • 話題の ChatGPT + LangChain で ChatGPT が学習していない最新の OSS ソースコードを爆速でウォークスルーする - Qiita

                                                            はじめに ソースコードの解読には、高度な技能や時間が必要です。しかし、ChatGPT を使えば、ソースコードの解読を迅速に行うことができます。 ChatGPT は、OpenAI が開発した言語モデルの一つであり、大量の自然言語のコーパスを学習しています。そのため、一定期間内の OSS のソースコードを解析する際には、最新の知識を反映させることができません。しかし、LangChain を使用することで、最新の OSS のソースコードに対しても問い合わせを行うことができます。 この記事では、ChatGPT と LangChain を用いて、最新の OSS ソースコードのウォークスルーを行う方法について紹介します。 ChatGPT に最新の OSS ソースコードを解析させるには? LangChain は、外部のベクターストアを使用して、ソースコードに含まれるテキストデータの意味的な関連性を Ch

                                                              話題の ChatGPT + LangChain で ChatGPT が学習していない最新の OSS ソースコードを爆速でウォークスルーする - Qiita
                                                            • Codestral: Hello, World!

                                                              Codestral: Hello, World!Empowering developers and democratising coding with Mistral AI. We introduce Codestral, our first-ever code model. Codestral is an open-weight generative AI model explicitly designed for code generation tasks. It helps developers write and interact with code through a shared instruction and completion API endpoint. As it masters code and English, it can be used to design ad

                                                                Codestral: Hello, World!
                                                              • OSS 活動を通して貢献できた Meilisearch を紹介したい - Qiita

                                                                Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この記事はスタンバイ Advent Calendar 2023 の11日目の記事です。 こんにちは。求人検索サービスを提供する株式会社スタンバイでプロダクト開発部長をしている大須賀です。 普段の仕事は開発組織運営などのマネジメントが中心です。一般的にマネージャは、業務として直接的に開発に携わることが少なくなり、Individual Contributor (IC) としてスペシャリストを目指すエンジニアから敬遠されがちです。確かにその通りかもしれませんが、幸運なことに私の場合、仕事をではマネージャとして、OSS 活動ではエンジニアとして

                                                                  OSS 活動を通して貢献できた Meilisearch を紹介したい - Qiita
                                                                • LLMアプリにhuman-in-the-loopを追加する「HumanLayer」を試す

                                                                  GitHubレポジトリ HumanLayer HumanLayer: AIエージェントがツールベースおよび非同期ワークフローで人間とコミュニケーションできるようにするPythonツールキット。人間をループに組み込むことで、エージェントツールはより強力で意味のあるツールコールやタスクへのアクセスが可能になります。 あなたのLLM(OpenAI、Llama、Claudeなど)やフレームワーク(LangChain、CrewAIなど)を持ち込み、AIエージェントに安全に世界へのアクセスを提供しましょう。 なぜHumanLayerなのか? 機能やツールは、エージェントワークフローの重要な要素です。これらは、LLM(大規模言語モデル)が外部の世界と意味のある形でやり取りし、広範囲にわたる重要な作業を自動化することを可能にします。正確で正しい機能呼び出しは、AIエージェントがアポイントメントを予約したり

                                                                    LLMアプリにhuman-in-the-loopを追加する「HumanLayer」を試す
                                                                  • Difyの基礎知識

                                                                    概要 Difyでどのようなことができるのか?他ツールとは、どのように違うのか?Difyのユースケースなどについて紹介します アジェンダ Difyとは? (5分) 従来ツールとの比較 (5分) Dify環境構築の様子 (5分) 1分でGPTsっぽいチャットボット作成 (5分) ワークフローの活用 (5分) その他Difyの主要な機能紹介 (5分) Difyとは? Dify(ディファイ)とは LLM(大規模言語モデル)アプリケーション開発プラットフォーム Difyの由来は、Define(定義)+Modify(修正) AIアプリケーションを定義し、継続的に改善すること意味している 開発機能だけではなくアプリの公開や保守運用を簡素化するような機能が提供されている 作りっぱなしは簡単、LLMの爆発的な進化に合わせて継続的な改善活動が大切 アプリの実行履歴やどのような処理を行ったか実行内容の詳細が確認

                                                                      Difyの基礎知識
                                                                    • Slack Botによるヘルプページの情報参照:LLMを組み合わせたRAGの実装

                                                                      はじめに 株式会社スマートショッピングで SRE をしているbiosugar0です。 先日、2023 年 10 月 23 日に行われた Amazon Bedrock Prototyping Camp というイベントに参加してきました。 そこでは Bedrock の紹介から始まり、Claude のハンズオン、実際にプロダクト反映を目指したプロトタイピングを行うという内容でした。 今回はその中で検証、実装した社内用の Slack bot に弊社ヘルプページを参照させる事例を紹介します。 Retrieval Augmented Generation (RAG) Retrieval Augmented Generation (RAG)は、LLM を用いた処理において、外部のデータベースや文書と連携してより精度の高い回答を生成するためのテクニックです。 GPT-4 のような LLM は、学習に使用さ

                                                                        Slack Botによるヘルプページの情報参照:LLMを組み合わせたRAGの実装
                                                                      • Google Colab で Llama 2 + LangChain の RetrievalQA を試す|npaka

                                                                        「Google Colab」で「Llama 2 + LangChain」の RetrievalQA を試したのでまとめました。 1. 使用モデル今回は、「Llama-2-7b-chat-hf」(4bit量子化)と埋め込みモデル「multilingual-e5-large」を使います。 3. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) メニュー「編集→ノートブックの設定」で、「ハードウェアアクセラレータ」で「GPU」を選択。 (2) パッケージのインストール。 # パッケージのインストール !pip install langchain accelerate bitsandbytes sentence_transformers !pip install faiss-gpu(3) HuggingFaceのログイン。 # HuggingFaceのログイン !hugging

                                                                          Google Colab で Llama 2 + LangChain の RetrievalQA を試す|npaka
                                                                        • AWS Lambda SnapStart for Python and .NET functions is now generally available | Amazon Web Services

                                                                          AWS News Blog AWS Lambda SnapStart for Python and .NET functions is now generally available Today, we’re announcing the general availability of AWS Lambda SnapStart for Python and .NET functions that delivers faster function startup performance, from several seconds to as low as sub-second, typically with minimal or no code changes in Python, C#, F#, and Powershell. In November 28, 2022, we introd

                                                                            AWS Lambda SnapStart for Python and .NET functions is now generally available | Amazon Web Services
                                                                          • ガチンコ比較! LangChain vs LlamaIndex

                                                                            【ハイブリッド開催】LLMのエコシステム(Oracle Cloud Hangout Cafe) https://ochacafe.connpass.com/event/320593/

                                                                              ガチンコ比較! LangChain vs LlamaIndex
                                                                            • RAG(Retrieval Augmented Generation)を用いたPostgreSQLアシスタントAIの試作 - Qiita

                                                                              この記事はNTTコムウェア Advent Calendar 2023の4日目の記事です。 こんにちは、NTTコムウェアの平塚です。今月は2023冬 Chill Seasonで手に馴染むブキを探しているところです。 大規模言語モデルが持っていない最新情報や企業内情報を補うためのRAG(Retrieval Augmented Generation、検索拡張生成)というアーキテクチャーがあります。ごく簡単に説明すると、外部データベースを用意してそこで検索した結果を大規模言語モデルに説明させるというものです。以下はRAGのイメージ図です。 現在多くの企業さまがRAGの検証に取り組んでいるところかと思います。今回RAGを用いてPostgreSQLに詳しいアシスタントAIを試作したので、気づいたところをいくつ か共有いたします。 まとめ PostgreSQLアシスタントAIはある程度使えるものになりそ

                                                                                RAG(Retrieval Augmented Generation)を用いたPostgreSQLアシスタントAIの試作 - Qiita
                                                                              • rinna.cpp を試す|npaka

                                                                                「rinna.cpp」を試したのでまとめました。 ・rinna/japanese-gpt-neox-3.6b-instruction-ppo ・macOS 13.4.1 【追加情報】「redpajama.cpp」はメンテされてないので、今後は @syoyo さん版使うのが良さそうです。 redpajama.cpp はなんかもうメンテされていないから, rinna を llama.cpp で動かす時はこちらの fork を使うといいよ☺️ (近日中に japanese-normalizer-cpp 取り込んで日本語正規化対応する!) https://t.co/M6LK0OZlm8https://t.co/ZAfp7YJjXr — syoyo.eth 🌸 レイトラ ® 🐯 5 周年 🎉 (@syoyo) July 14, 2023 1. rinna.cpp「rinna.cpp」は、「ll

                                                                                  rinna.cpp を試す|npaka
                                                                                • Emerging Architectures for LLM Applications | Andreessen Horowitz

                                                                                  There are many different ways to build with LLMs, including training models from scratch, fine-tuning open-source models, or using hosted APIs. The stack we’re showing here is based on in-context learning, which is the design pattern we’ve seen the majority of developers start with (and is only possible now with foundation models). The next section gives a brief explanation of this pattern; experi

                                                                                    Emerging Architectures for LLM Applications | Andreessen Horowitz