並び順

ブックマーク数

期間指定

  • から
  • まで

321 - 360 件 / 2804件

新着順 人気順

langchainの検索結果321 - 360 件 / 2804件

  • langchain/cookbook at master · langchain-ai/langchain

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

      langchain/cookbook at master · langchain-ai/langchain
    • Azure で ChatGPT × Cognitive Search を使ったエンタープライズサーチを実現 - Qiita

      2023/3/10 に Azure OpenAI Serivce で ChatGPT(gpt-35-turbo) がプレビューで利用可能になったと発表されました。この発表と同時に、ChatGPT と Azure Cognitive Search を組み合わせてエンタープライズサーチを構築するためのアーキテクチャ、サンプルコードが提供されました。 この発表およびサンプルコードの重要なポイントは以下です。 ChatGPT(gpt-35-turbo)モデルでトレーニングされたデータに基づいてテキストを生成するのではなく、企業内に閉じたデータのみから生成する方法の例を示しています トークンの制限(4,096)の壁をできるだけ回避するための手法を紹介しています 「引用」をテキストに付加することで信頼できる応答を生成します 今回はこのサンプルコードを自分で理解しやすいようにカスタマイズしつつ内容を解説

        Azure で ChatGPT × Cognitive Search を使ったエンタープライズサーチを実現 - Qiita
      • RAGの評価:評価の必要性と問題点 - Beatrust techBlog

        本ブログはこんな人におすすめ RAG (Retrieval Augmented Generation)を使ったアプリケーションを開発しているけど評価に関心のある人 LLM (Large Language Model)やRAGのハルシネーションをどう評価するのかに関心のある人 Ragas (RAGの評価ライブラリ:Retrieval augmented generation assessment)の挙動に興味がある人 こんにちは。私はBeatrustのML周辺のお手伝いをしている鈴木宏和と申します。今回はこれから3つのパートに分けて紹介させていただきますが、LLMの応用として特に注目を集めているRAG (Retrieval Augmented Generation)について、RAGの評価の必要性とアプローチ方法について考察しつつ、RAGに特化した評価ライブラリであるRagasの有用性に関する

          RAGの評価:評価の必要性と問題点 - Beatrust techBlog
        • Llama Hub

          Our integrations include utilities such as Data Loaders, Agent Tools, Llama Packs, and Llama Datasets. We make it extremely easy to connect large language models to a large variety of knowledge & data sources. Use these utilities with a framework of your choice such as LlamaIndex, LangChain, and more. Learn More

          • LangChain + Zapier Natural Language Actions (NLA)

            We are super excited to team up with Zapier and integrate their new Zapier NLA API into LangChain, which you can now use with your agents and chains. With this integration, you have access to the 5k+ apps and 20k+ actions on Zapier's platform through a natural language API interface. This is extremely powerful and gives your LangChain agents seemingly limitless possibilities. Big shoutout to Mike

              LangChain + Zapier Natural Language Actions (NLA)
            • OpenAIよ。2022年1月より先の未来を見たくないか?【Azure OpenAI × LangChain ハンズオン】

              目次 はじめに 今回作成するシステムの概要と前提条件 Azure Bing Search セットアップ Next.jsコーディング 動作確認 お片付け はじめに 2022年1月...。 このワードを聞いてピンときた方は日頃かなり勉強されているつよつよエンジニアに違いありません。 2022年1月というのは、OpenAIのGPT-3.5モデルの学習範囲の果てと言われています。 ということは...2022年1月以降の知識であれば... ファーー!! 2022年1月以降の情報であればマウント取り放題です! ... でも、マウントをとっていても仕方がありません。 私は以前、恩師よりマウントはドライブだけで充分です。という言葉を教えていただいたことを思い出しました。 では、2022年1月以降の情報でも適切に回答できるようにするにはどうすれば良いのか? そんな方々に向けたアンサーの一つをこの記事にまとめ

                OpenAIよ。2022年1月より先の未来を見たくないか?【Azure OpenAI × LangChain ハンズオン】
              • GitHub - chroma-core/chroma: the AI-native open-source embedding database

                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                  GitHub - chroma-core/chroma: the AI-native open-source embedding database
                • The Powerful Conversational AI JavaScript Library | NLUX

                  NLUX with ReactGenerative UI With Next.jsChatGPT-Inspired UIChat pop-up with shadcn/ui import { AiChat, useAsStreamAdapter } from '@nlux/react'; import '@nlux/themes/nova.css'; import { send } from './send'; import { user, assistantAvatar } from './personas'; export default () => { const adapter = useAsStreamAdapter(send, []); return ( <AiChat adapter={ adapter } personaOptions={{ assistant: { nam

                    The Powerful Conversational AI JavaScript Library | NLUX
                  • LLM・Copilot・Plugin・AI Orchestrationというワードが飛び交った「Microsoft Build 2023」 キーノートで発表された注目のアップデートは? | ログミーBusiness

                    スタートアップの技術情報交換の場を提供することを目的として設立された「Microsoft Startup Tech Community」。「Microsoft Startup Tech Meetup #0 kick off」は、「Microsoft Build 2023」をテーマに開催されました。ここで登壇したのは、株式会社メルカリの大嶋悠司氏。生成系AI/LLM に関する注目アップデートについて発表しました。全2回。前半は、キーノートについて。 LLM・Copilot・Plugin・AI Orchestrationというワードが飛び交っていた「Microsoft Build 2023」大嶋悠司氏:では、「生成系AI/LLMに関する注目アップデート ~Build 2023編~」というタイトルでメルカリの大嶋が発表いたします。 私は、メルカリの生成系AIとLLMの専任のチームでテックリードを

                      LLM・Copilot・Plugin・AI Orchestrationというワードが飛び交った「Microsoft Build 2023」 キーノートで発表された注目のアップデートは? | ログミーBusiness
                    • マイクロソフト、大規模言語モデルを選択すると数秒後にAzure上で試せる「Models as a Service」発表。従量課金制の推論API、ファインチューニングも可能。Ignite 2023

                      マイクロソフト、大規模言語モデルを選択すると数秒後にAzure上で試せる「Models as a Service」発表。従量課金制の推論API、ファインチューニングも可能。Ignite 2023 マイクロソフトは現在開催中のイベント「Microsoft Ignite 2023」で、オープンソースの大規模言語モデルを、Microsoft Azure上でマネージドサービスとしてすぐに試せる「Models as a Service」を提供すると発表しました。 これにより開発者が簡単に大規模言語モデルのサービスを簡単かつ迅速に試し、アプリケーションの開発に利用できるようになります。 当初はMetaが公開している大規模言語モデルLlma 2をサポートし、今後MistralやJaisなど対応する大規模言語モデルの種類を拡大していく予定です。 カタログから選択すると数秒後には利用可能、従量課金制 Mod

                        マイクロソフト、大規模言語モデルを選択すると数秒後にAzure上で試せる「Models as a Service」発表。従量課金制の推論API、ファインチューニングも可能。Ignite 2023
                      • AI Agentがブラウザを操作する「Browser Use」を試してみよう!|marumarumaru

                        「Browser Use」って何?先日、いつも通りXを徘徊してたらLangChainのアカウントから面白いポストを発見。 AI Agentがブラウザに簡単にアクセスできるっぽい。 🛜 Browser Use Make websites accessible for AI agents 🤖 Browser use is the easiest way to connect your AI agents with the browser Use any LLM supported by LangChain (e.g. gpt4o, gpt4o mini, claude 3.5 sonnet, llama 3.1 405b, etc.)https://t.co/x9hRshFEk5 pic.twitter.com/28n9697WJU — LangChain (@LangChainAI) D

                          AI Agentがブラウザを操作する「Browser Use」を試してみよう!|marumarumaru
                        • Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリース

                          Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリースW&B Fully Connected 2023カンファレンスとAI Expo2023秋にて配布予定 Weights & Biases Japan株式会社(以下、W&B Japan)は本日、大規模言語モデル(LLM)の開発手法にフォーカスするホワイトペーパーの第2弾となる「LLMファインチューニングとプロンプトエンジニアリングのベストプラクティス」を公開しました。LLM導入を検討している企業向けに、自社の保持するリソースやビジネスモデルに合わせたLLM開発手法を選択するための実践的ガイドとなっており、第1弾の「LLMをゼロからトレーニングするためのベストプラクティス」を補完する形で、既存のLLMモデルを拡張する形で自社用途に適応する手法について解説しています。本ホワイトペーパーの印刷済み冊子

                            Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリース
                          • 生成AIサービス悪用が現実的な脅威に、プロンプトインジェクションで情報漏洩・侵入

                            生成AI(人工知能)を組み込んだシステムへの「プロンプトインジェクション」の脅威が迫っている。プロンプトインジェクションは、英語のinjection(注入・注射)になぞらえた大規模言語モデル(LLM)への攻撃手法だ。悪意あるプロンプトを「注入」、すなわち入力することにより、機密情報を盗んだり連係するシステムへ侵入したりする。 生成AIを社内システムや社外向けのサービスに組み込む企業が増加している。2023年の生成AIブーム初期から、API(アプリケーション・プログラミング・インターフェース)経由でLLMを使い、システムに対話機能を実装する企業が多く見られた。 現在では、こうした対話機能において企業固有の内容を回答できるようにするため、企業のデータベース(DB)の情報をLLMが参照できるようにするRAG(Retrieval Augmented Generation、検索拡張生成)を実装する事

                              生成AIサービス悪用が現実的な脅威に、プロンプトインジェクションで情報漏洩・侵入
                            • 「これまでのキャッチアップの遅さに比べると、今回の日本のスピードは悪くない」 日本のLLM開発が“国際的な競争力”を持つために必要なこと

                              日本CTO協会が主催の「Developer eXperience Day 2023」は、“開発者体験” をテーマに、その知見・経験の共有とそれに関わる方々のコミュニケーションを目的としたカンファレンスです。ここで登壇したのは、東京大学の教授である松尾豊氏。LLMの技術的な概要について解説するとともに、今後の技術的な進展について発表しました。全3回。3回目は、民間企業・行政におけるChatGPT活用例と、LLM開発において必要なことについて。 従来あり得ないぐらいのスピード感で国も動いている 松尾豊氏:(スライドを示して)こういった技術の進展、ChatGPTという社会現象に対して、国も非常に急ピッチで動いています。かつてこんなに、最新の技術の変化に対して動きが速いことがあったのだろうかと思うぐらい、民間の経営者やスタートアップも含めて、本当に国全体が非常に速い動きをしていて、私はすばらしいこ

                                「これまでのキャッチアップの遅さに比べると、今回の日本のスピードは悪くない」 日本のLLM開発が“国際的な競争力”を持つために必要なこと
                              • Fate Stay Nightで学ぶGraphRAG(GoogleColab付) - Sun wood AI labs.2

                                はじめに Graph retrieval augmented generation (Graph RAG) は、従来のベクター検索による情報検索手法に強力な手法として注目を集めています。Graph RAGは、データをノードと関係性で構造化するグラフデータベースの特性を活かし、検索された情報の深さと文脈性を高めます。 本記事では、人気アニメ「Fate Stay Night」のWikipediaデータを使って、LangChainとNeo4jを用いたGraph RAGの実践的な構築方法を初心者向けに解説します。 環境のセットアップ まずは必要なライブラリをインストールしましょう。 %%capture %pip install --upgrade --quiet langchain langchain-community langchain-openai langchain-experimenta

                                  Fate Stay Nightで学ぶGraphRAG(GoogleColab付) - Sun wood AI labs.2
                                • 実用的なLLMアプリケーションを作るための大規模アップデート 「LangChain 0.1」「LlamaIndex 0.10」になって変わったこと | ログミーBusiness

                                  「LangChain」と「LlamaIndex」の違い布留川英一氏:OpenAIの新機能を話したので、次にLangChain 0.1とLlamaIndex 0.10について話そうかと思います。今回のOpenAI本にはこのLangChainとLlamaIndex(の話題)は入れませんでした。その1個前の本にはLangChainとLlamaIndexは入っていたんですが、今回の本には入れられませんでした。 年末ぐらいにLangChainとLlamaIndexの大規模アップデートがありました。より実用的なLLMアプリケーションを作るために大規模アップデートがあったので、本に載せるにはちょっと危ないかなと思って、今回はスルーしていました。 その大規模アップデートが、1月、2月ぐらいで両方とも完了したということで、これからどんどん使っていくのがいいかと思います。ということで、どんな感じのアップデート

                                    実用的なLLMアプリケーションを作るための大規模アップデート 「LangChain 0.1」「LlamaIndex 0.10」になって変わったこと | ログミーBusiness
                                  • 新モデルの追加と値下げ、ChatGPTのメモリ機能追加、「Sora」の発表… 『OpenAI GPT-4V/ChatGPT/GPTs 人工知能プログラミング実践入門』著者が語る、OpenAIの技術情報 | ログミーBusiness

                                    布留川氏の自己紹介布留川英一氏:それでは始めます。OpenAI本出版記念として、今日は「OpenAI最新技術情報と技術情報キャッチアップ術」について話そうと思います。 最初に簡単に自己紹介をします。名前は布留川英一と申します。ハンドルネームはnpakaでやっています。株式会社ゼルペムに所属していますが、基本は個人でやっているようなものです。 プログラム歴は40年と言っていますが、1984年の「ファミリーベーシック」みたいなものから始めたので、ちょうど40年ということでキリがいい数字でした。インターネット歴は大学に入った1994年からなので、ちょうど30年です。 技術書歴は、最初に書いたのが、「iモード」のアプリの開発ができるようになった本なので、2001年からで、今のところだいたい年間2冊ペースで50冊ほど本を書いています。 自分は誰かというと、ハードウェアというよりはロボットを動かすAI

                                      新モデルの追加と値下げ、ChatGPTのメモリ機能追加、「Sora」の発表… 『OpenAI GPT-4V/ChatGPT/GPTs 人工知能プログラミング実践入門』著者が語る、OpenAIの技術情報 | ログミーBusiness
                                    • 話題の ChatGPT + LangChain で ChatGPT が学習していない最新の OSS ソースコードを爆速でウォークスルーする - Qiita

                                      はじめに ソースコードの解読には、高度な技能や時間が必要です。しかし、ChatGPT を使えば、ソースコードの解読を迅速に行うことができます。 ChatGPT は、OpenAI が開発した言語モデルの一つであり、大量の自然言語のコーパスを学習しています。そのため、一定期間内の OSS のソースコードを解析する際には、最新の知識を反映させることができません。しかし、LangChain を使用することで、最新の OSS のソースコードに対しても問い合わせを行うことができます。 この記事では、ChatGPT と LangChain を用いて、最新の OSS ソースコードのウォークスルーを行う方法について紹介します。 ChatGPT に最新の OSS ソースコードを解析させるには? LangChain は、外部のベクターストアを使用して、ソースコードに含まれるテキストデータの意味的な関連性を Ch

                                        話題の ChatGPT + LangChain で ChatGPT が学習していない最新の OSS ソースコードを爆速でウォークスルーする - Qiita
                                      • Codestral: Hello, World!

                                        Codestral: Hello, World!Empowering developers and democratising coding with Mistral AI. We introduce Codestral, our first-ever code model. Codestral is an open-weight generative AI model explicitly designed for code generation tasks. It helps developers write and interact with code through a shared instruction and completion API endpoint. As it masters code and English, it can be used to design ad

                                          Codestral: Hello, World!
                                        • LLMアプリにhuman-in-the-loopを追加する「HumanLayer」を試す

                                          GitHubレポジトリ HumanLayer HumanLayer: AIエージェントがツールベースおよび非同期ワークフローで人間とコミュニケーションできるようにするPythonツールキット。人間をループに組み込むことで、エージェントツールはより強力で意味のあるツールコールやタスクへのアクセスが可能になります。 あなたのLLM(OpenAI、Llama、Claudeなど)やフレームワーク(LangChain、CrewAIなど)を持ち込み、AIエージェントに安全に世界へのアクセスを提供しましょう。 なぜHumanLayerなのか? 機能やツールは、エージェントワークフローの重要な要素です。これらは、LLM(大規模言語モデル)が外部の世界と意味のある形でやり取りし、広範囲にわたる重要な作業を自動化することを可能にします。正確で正しい機能呼び出しは、AIエージェントがアポイントメントを予約したり

                                            LLMアプリにhuman-in-the-loopを追加する「HumanLayer」を試す
                                          • Difyの基礎知識

                                            概要 Difyでどのようなことができるのか?他ツールとは、どのように違うのか?Difyのユースケースなどについて紹介します アジェンダ Difyとは? (5分) 従来ツールとの比較 (5分) Dify環境構築の様子 (5分) 1分でGPTsっぽいチャットボット作成 (5分) ワークフローの活用 (5分) その他Difyの主要な機能紹介 (5分) Difyとは? Dify(ディファイ)とは LLM(大規模言語モデル)アプリケーション開発プラットフォーム Difyの由来は、Define(定義)+Modify(修正) AIアプリケーションを定義し、継続的に改善すること意味している 開発機能だけではなくアプリの公開や保守運用を簡素化するような機能が提供されている 作りっぱなしは簡単、LLMの爆発的な進化に合わせて継続的な改善活動が大切 アプリの実行履歴やどのような処理を行ったか実行内容の詳細が確認

                                              Difyの基礎知識
                                            • Slack Botによるヘルプページの情報参照:LLMを組み合わせたRAGの実装

                                              はじめに 株式会社スマートショッピングで SRE をしているbiosugar0です。 先日、2023 年 10 月 23 日に行われた Amazon Bedrock Prototyping Camp というイベントに参加してきました。 そこでは Bedrock の紹介から始まり、Claude のハンズオン、実際にプロダクト反映を目指したプロトタイピングを行うという内容でした。 今回はその中で検証、実装した社内用の Slack bot に弊社ヘルプページを参照させる事例を紹介します。 Retrieval Augmented Generation (RAG) Retrieval Augmented Generation (RAG)は、LLM を用いた処理において、外部のデータベースや文書と連携してより精度の高い回答を生成するためのテクニックです。 GPT-4 のような LLM は、学習に使用さ

                                                Slack Botによるヘルプページの情報参照:LLMを組み合わせたRAGの実装
                                              • Google Colab で Llama 2 + LangChain の RetrievalQA を試す|npaka

                                                「Google Colab」で「Llama 2 + LangChain」の RetrievalQA を試したのでまとめました。 1. 使用モデル今回は、「Llama-2-7b-chat-hf」(4bit量子化)と埋め込みモデル「multilingual-e5-large」を使います。 3. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) メニュー「編集→ノートブックの設定」で、「ハードウェアアクセラレータ」で「GPU」を選択。 (2) パッケージのインストール。 # パッケージのインストール !pip install langchain accelerate bitsandbytes sentence_transformers !pip install faiss-gpu(3) HuggingFaceのログイン。 # HuggingFaceのログイン !hugging

                                                  Google Colab で Llama 2 + LangChain の RetrievalQA を試す|npaka
                                                • AWS Lambda SnapStart for Python and .NET functions is now generally available | Amazon Web Services

                                                  AWS News Blog AWS Lambda SnapStart for Python and .NET functions is now generally available Today, we’re announcing the general availability of AWS Lambda SnapStart for Python and .NET functions that delivers faster function startup performance, from several seconds to as low as sub-second, typically with minimal or no code changes in Python, C#, F#, and Powershell. In November 28, 2022, we introd

                                                    AWS Lambda SnapStart for Python and .NET functions is now generally available | Amazon Web Services
                                                  • ガチンコ比較! LangChain vs LlamaIndex

                                                    【ハイブリッド開催】LLMのエコシステム(Oracle Cloud Hangout Cafe) https://ochacafe.connpass.com/event/320593/

                                                      ガチンコ比較! LangChain vs LlamaIndex
                                                    • RAG(Retrieval Augmented Generation)を用いたPostgreSQLアシスタントAIの試作 - Qiita

                                                      この記事はNTTコムウェア Advent Calendar 2023の4日目の記事です。 こんにちは、NTTコムウェアの平塚です。今月は2023冬 Chill Seasonで手に馴染むブキを探しているところです。 大規模言語モデルが持っていない最新情報や企業内情報を補うためのRAG(Retrieval Augmented Generation、検索拡張生成)というアーキテクチャーがあります。ごく簡単に説明すると、外部データベースを用意してそこで検索した結果を大規模言語モデルに説明させるというものです。以下はRAGのイメージ図です。 現在多くの企業さまがRAGの検証に取り組んでいるところかと思います。今回RAGを用いてPostgreSQLに詳しいアシスタントAIを試作したので、気づいたところをいくつ か共有いたします。 まとめ PostgreSQLアシスタントAIはある程度使えるものになりそ

                                                        RAG(Retrieval Augmented Generation)を用いたPostgreSQLアシスタントAIの試作 - Qiita
                                                      • rinna.cpp を試す|npaka

                                                        「rinna.cpp」を試したのでまとめました。 ・rinna/japanese-gpt-neox-3.6b-instruction-ppo ・macOS 13.4.1 【追加情報】「redpajama.cpp」はメンテされてないので、今後は @syoyo さん版使うのが良さそうです。 redpajama.cpp はなんかもうメンテされていないから, rinna を llama.cpp で動かす時はこちらの fork を使うといいよ☺️ (近日中に japanese-normalizer-cpp 取り込んで日本語正規化対応する!) https://t.co/M6LK0OZlm8https://t.co/ZAfp7YJjXr — syoyo.eth 🌸 レイトラ ® 🐯 5 周年 🎉 (@syoyo) July 14, 2023 1. rinna.cpp「rinna.cpp」は、「ll

                                                          rinna.cpp を試す|npaka
                                                        • Emerging Architectures for LLM Applications | Andreessen Horowitz

                                                          There are many different ways to build with LLMs, including training models from scratch, fine-tuning open-source models, or using hosted APIs. The stack we’re showing here is based on in-context learning, which is the design pattern we’ve seen the majority of developers start with (and is only possible now with foundation models). The next section gives a brief explanation of this pattern; experi

                                                            Emerging Architectures for LLM Applications | Andreessen Horowitz
                                                          • GitHub - Arize-ai/phoenix: AI Observability & Evaluation

                                                            Phoenix is an open-source AI observability platform designed for experimentation, evaluation, and troubleshooting. It provides: Tracing - Trace your LLM application's runtime using OpenTelemetry-based instrumentation. Evaluation - Leverage LLMs to benchmark your application's performance using response and retrieval evals. Datasets - Create versioned datasets of examples for experimentation, evalu

                                                              GitHub - Arize-ai/phoenix: AI Observability & Evaluation
                                                            • 2024年の振り返りと2025年の抱負 - kakakakakku blog

                                                              2024年の振り返り🎉 お仕事を楽しく頑張って貢献できた 2024年の年間目標として「お仕事を楽しく頑張って貢献する」を掲げていた.2023年4月からフリーランスのソフトウェアエンジニアになって,1年半以上活動しているけど,本当に毎日楽しく働けている👌 2024年からは大きく2つの案件に参画していて,1つは新規プロダクト開発の技術面をほぼ1人で担当していて,もう1つは歴史のある既存プロダクトと開発組織のモダン化を支援していた💪 アーキテクチャ設計・バックエンド開発・インフラ構築・コスト最適化・DevOps 推進・自動テスト導入・エンジニア育成などなど幅広く担当していて,個人的にあまり得意ではないけどフロントエンド開発もやった.2024年7月からは稼働時間も増えて,1ヶ月に200時間以上は稼働していたけど,とにかく毎日楽しくてツライと感じることはあまりなかった❗️(もちろん忙しすぎる月

                                                                2024年の振り返りと2025年の抱負 - kakakakakku blog
                                                              • CLIで動く開発AIエージェントの仕組みと特徴

                                                                CLIから動作し、GitHubのIssueをもとにコードを解析・編集し、Pull Request(PR)を自動作成する「Issue Agent」を開発しました。 この記事では、Issue Agentの仕組みや特徴について紹介します。 Issue Agent 今回実装した開発AIエージェントはこちらです。 Issue Agentは、GitHubのIssueを読み取り、その内容に基づいてコードベースを自律的に解析し、 必要なファイルの作成や編集を行います。最終的には、自動でPRを作成する開発エージェントです。 例えば、こんなようなissueがあったとします。 たとえば、.gitignoreの設定が無秩序に増えてしまったために整理が必要だけれど、つい後回しにしていたIssueがあったとします。 これをIssue Agentに渡すことで、.gitignoreの内容や使っているフレームワークや利用技

                                                                  CLIで動く開発AIエージェントの仕組みと特徴
                                                                • OSS 活動を通して貢献できた Meilisearch を紹介したい - Qiita

                                                                  Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この記事はスタンバイ Advent Calendar 2023 の11日目の記事です。 こんにちは。求人検索サービスを提供する株式会社スタンバイでプロダクト開発部長をしている大須賀です。 普段の仕事は開発組織運営などのマネジメントが中心です。一般的にマネージャは、業務として直接的に開発に携わることが少なくなり、Individual Contributor (IC) としてスペシャリストを目指すエンジニアから敬遠されがちです。確かにその通りかもしれませんが、幸運なことに私の場合、仕事をではマネージャとして、OSS 活動ではエンジニアとして

                                                                    OSS 活動を通して貢献できた Meilisearch を紹介したい - Qiita
                                                                  • まだLLM API呼び出しで消耗してるの?LiteLLMによるAPI呼び出し共通化のススメ

                                                                    こんにちはべいえりあです。いきなり煽りタイトルで申し訳ないのですが、今回はLiteLLMについて書いてみようと思います。 LiteLLMとは? LiteLLMは様々なLLM APIをOpenAIフォーマットで呼び出せるサービスです。 LLM APIを共通のフォーマットで呼び出せるサービスとしては他にもLangChainなどもあると思うのですが、APIの呼び出し共通化が目的だとLangChainをインストールすると不要な機能/ライブラリも併せて大量にインストールされるので、必要最小限の機能があれば良いのであればLiteLLMがオススメです。 LiteLLM自体は(LLMのライブラリとしては)そこそこ古いライブラリで、開発が始まったのは2023年の8月なのですが、最近ではLLM系の有名ライブラリでも使われるようになってきていて、例えばDSPyがLiteLLMに移行したのも話題になりました。 こ

                                                                      まだLLM API呼び出しで消耗してるの?LiteLLMによるAPI呼び出し共通化のススメ
                                                                    • 2023年のふりかえり - laiso

                                                                      TL;DR 2023年に学んだ知識で2024年はマネーを獲得 2022年のふりかえり 2023年にやったこと After ChatGPT ChatGPTの使い方 コーディング自動化 アプリケーション開発 クラウドプラットフォーム関連 技術系の動画 フレームワーク関連 AWSコスト最適化大作戦 オライリー本 メインエディタをVSCodeに乗り換えた AndroidからiPhone 15 Proに乗り換えた OSSへの寄付 2023年にやりたかったこと 2024年にやりたいこと LLMを活用したアプリケーションを開発する 技術書を書く ニュースレターを配信する 動画を作る 事業を作る 2022年のふりかえり laiso.hatenablog.com laiso.hatenablog.com 2023年にやったこと After ChatGPT Chat Completions APIのリリースを

                                                                        2023年のふりかえり - laiso
                                                                      • チャットAIの開発入門書「OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門」、ボーンデジタルが発売|ゲームメーカーズ

                                                                        ボーンデジタルがチャットAIを開発するための入門書「OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門」を発売 チャットAIの仕組みから独自システムへの組み込み方まで解説 サンプルのほとんどは「Google Colaboratory」で実行できる ボーンデジタルは2023年7月2日、チャットAIの開発入門書「OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門」を発売しました。今回発売されたものは書籍版で、PDF版は6月23日にすでに発売されています。 ★緊急先行発売★ PDFダウンロード版 OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門https://t.co/Leg747E4nV 6/23~6/30まで1週間限定で「5章 LlamaIndex」の全文PDFを公

                                                                          チャットAIの開発入門書「OpenAI GPT-4/ChatGPT/LangChain 人工知能プログラミング実践入門」、ボーンデジタルが発売|ゲームメーカーズ
                                                                        • LangChain のユースケース|npaka

                                                                          「LangChain」 のユースケースをまとめました。 1. RAGのQA「RAGのQA」は、RAG技術を使用して、特定の情報源に関する質問に回答するチャットボットを構築します。RAGは、ユーザーの質問に応じて適切な情報を検索し、それをLLMのプロンプトに組み込むことで、LLMの知識を強化します。具体的には、ドキュメントと読み込み、チャンクに分割して、インデックスを作成した後、ユーザーの入力に基づいて関連するデータを検索し、回答を生成します。 2. 情報抽出「情報抽出」は、LLMでテキストから構造化データを抽出するユースケースです。次の3つのアプローチがあります。 ・Tool Callingモード : Tool Callingで指定されたスキーマに従って、構造化データを出力 ・JSONモード : プロンプトの一部としてスキーマを提供し、JSONデータを出力 ・プロンプトベース : 指示に従

                                                                            LangChain のユースケース|npaka
                                                                          • LLM連携アプリの開発を支援するライブラリ LangChain の使い方 (1) - LLMとプロンプト・チェーン|npaka

                                                                            「LangChain」の「LLMとプロンプト」「チェーン」の使い方をまとめました。 1. LangChain「LangChain」は、「LLM」 (Large language models) と連携するアプリの開発を支援するライブラリです。 「LLM」という革新的テクノロジーによって、開発者は今まで不可能だったことが可能になりました。しかし、「LLM」を単独で使用するだけでは、真に強力なアプリケーションを作成するのに不十分です。本当の力は、それを他の計算や知識と組み合わせた時にもたらされます。「LangChain」は、そのようなアプリケーションの開発をサポートします。 2. LangChainの支援領域「LangChain」の支援領域は、次の5つがあります。 (1) LLM とプロンプト (2) チェーン (3) データ拡張生成 (4) エージェント (5) メモリ (6) 評価 (BE

                                                                              LLM連携アプリの開発を支援するライブラリ LangChain の使い方 (1) - LLMとプロンプト・チェーン|npaka
                                                                            • Google Cloud サービスカット学習コンテンツ集 - G-gen Tech Blog

                                                                              Google Cloud(旧称 GCP)の学習に役立つオンラインコンテンツを、サービスカットや分野別でまとめました。Google Cloud 初学者の方の基本的な学習のほか、資格取得にもお役立てください。 はじめに Google Cloud 全般 課金・コスト削減 アーキテクチャ・ベストプラクティス セキュリティ・統制 (非ネットワーク) セキュリティ (ネットワーク) コンピューティング ネットワーク ストレージ データベース データ分析 AI/ML (機械学習)、Gemini 開発・IaC 監視・運用・SRE その他・Google プロダクト Google Workspace Google Cloud 認定資格 はじめに 当ページでは Google Cloud(旧称 GCP)の基礎学習や試験対策に役立つオンラインコンテンツを、サービス名別や分野別でまとめました。 「サービスカット」とは

                                                                                Google Cloud サービスカット学習コンテンツ集 - G-gen Tech Blog
                                                                              • ローカル で Llama 2 + LangChain の RetrievalQA を試す|npaka

                                                                                3. ローカルでの実行ローカルでの実行手順は、次のとおりです。 (1) Pythonの仮想環境の準備。 (2) 「Llama 2」(llama-2-7b-chat.ggmlv3.q4_0.bin)の準備。 前回と同様です。 (3) パッケージのインストール。 macOSはGPU対応が面倒そうなので、CPUにしてます。 $ pip install llama-cpp-python $ pip install langchain $ pip install faiss-cpu $ pip install sentence_transformers(4) コードの作成。 ・hello_qa.py import logging import sys from langchain.chains import RetrievalQA from langchain.embeddings import H

                                                                                  ローカル で Llama 2 + LangChain の RetrievalQA を試す|npaka
                                                                                • GitHub - langflow-ai/langflow: Langflow is a low-code app builder for RAG and multi-agent AI applications. It’s Python-based and agnostic to any model, API, or database.

                                                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                    GitHub - langflow-ai/langflow: Langflow is a low-code app builder for RAG and multi-agent AI applications. It’s Python-based and agnostic to any model, API, or database.