2024/09/03追記 ちょっとX経由で見に来ていただいた方が増えているようなのであらかじめ注意。 kotaemonで普通のRAGをやる場合は、OpenAI/Ollamaどちらの場合でも多分問題なくできるんじゃないかと思います。 kotaemonでGraphRAGをやる場合(多分ここに期待している人が多いと推測)は、以下の注意が必要です。 OpenAIならGraphRAGが動作しますが、モデルがgpt-4-turbo限定になると思います、つまりコストが高いです OllamaでGraphRAGは現状の実装だとちょっと難しそうです 公式にIssue上げてます(どっちかというとGraphRAG側の問題かなと思います)ので、kotaemonのGraphRAG対応については今後のリリースに期待するほうが良いかなと個人的には思います。 ここで知った。 GitHubレポジトリ kotaemon ドキュ
There are two main example folders flask_react (runs three services on localhost:5601/5602/3000) sh launch_app.sh creates a simple api that loads the text from the documents folder (if any), also launches the react frontend the "/query" endpoint accepts requests that contain a "text" parameter, which is used to query the index the "/upload" endpoint is a POST endpoint that inserts an attached text
Microsoft Power Virtual Agentsとは?バージョンや料金・使い方を解説 Microsoft Azureなどクラウドに関するお役立ち情報やイベント情報などをNTT東日本のクラソルメールマガジンにて毎週配信しております。ぜひご登録いただき、今後のクラウド活用の参考にしていただければと思います。 Microsoft Power Virtual Agentsとは、マイクロソフトが提供する「AIチャットボット作成サービス」です。このサービスを利用すれば、企業の提供しているサービスや商品に合わせて、独自のAIチャットボットを作成できます。 Microsoft Power Virtual Agentsを利用すれば、顧客からの自動問い合わせや社内FAQとして利用できるため、以下のような効果が期待できます。 問い合わせ対応の自動化によるカスタマー部門の業務効率化 顧客対応の高速化に
Teamsから社内利用できるGPTボットをPowerVirtualAgentsとAzure OpenAI Serviceでさくっと作るAzurePowerVirtualAgentsPowerAutomateChatGPTAzureOpenAIService はじめに 今回は表題の通り、Teamsから社内利用できるGPTボットについて、簡単に紹介していきたいと思います。 個人的な利用においてはChatGPTを既に使っている方も多いと思いますが、社内や業務での利用においては、ChatGPTへの社内情報等の入力はNGという企業が多く、基本的にはAzure OpenAI Serviceを使う事になるかと思います。 独自データをどう持たせてどの領域で活用していくか(Azure Cognitive Search, ベクトルストア等へのデータの蓄積と検索)という大きな論点はあるものの、とりあえず日常業務
1. はじめに 前回、Teamsから社内利用できるGPTボットを作りましたが、今回はWeb検索と独自データ検索機能もつけていきたいと思います。 独自データ検索は、CSVやPDF、社内ウェブサイト等も利用可能で、テキスト系の情報検索だけでなく、データベース接続もやります。 2. アーキテクチャ 今回のアーキテクチャは以下です。 機能としては、「①一般問合せ」「②Web検索」「③社内情報検索」「④データアクセス」の4つを持たせ、ユーザーからのモード選択でそれぞれの処理へ分岐させています。 ①一般問合せは、GPTとの直接のやり取りのため、PowerAutomateからそのままAPIをコールさせ、②Web検索は、GoogleのCustom Search APIを利用し、最新情報も取れるようにしています。 ③社内情報検索は、テキスト系の社内情報を事前にインデックス化したものをAzure Blob S
20240727追記 トークナイザーを自分で実装してBM25に渡す方法は、以下のコミットで使えなくなった。 https://github.com/run-llama/llama_index/commit/3f83323a3f006fd13847bb75013c454a820cd37c bm25sライブラリを使うのにあわせてtokenizerオプションが削除され、bm25sとpystemmerを渡すようになっているのだが、ともに日本語に対応していないと思う。。。 古いバージョン(llama-index-retrievers-bm25==0.1.5、LlamaIndex本体のバージョンタグはv0.10.52)を使うしかないのかな?ちょっとBM25s側で日本語を組み込めないかを確認してみる。 20240727追記 BM25sをざっくり見てみたけども、LlamaIndexでも使えるようにするには、
LLAMAーINDEX実験記録&マニュアル LLAMA-INDEXは、公式ドキュメントに記載がない、あるいは機能アップデートによって、GITHUBのみに記載するコードが多数あります。このライブラリーの使い方について、ChatGPTもわからないですので、実験が苦労しました。 故に、このマニュアルは、基本的なLLAMA-INDEXの使い方から、高度の使用まで紹介させていただきたいと思います。 基本紹介 LLAMAーINDEXは、AIのメモリとして設計されています。自身は言語機能がなく、ChatGPTやLLAMA2などのAPIが必要です。 基本デザインは、Promptの中に全ての知識を書き切れない場合、ベクトルデータセットを使用し、素早くPromptに関係あるデータを抽出して、Promptの中に入れます。 例えば、辞書データの中に特定の単語の使い方を抽出することなどができます。 ただし、それは万
今回は、StreamlitとOllama Pythonライブラリを使用して、ローカルLLMを動かしてみます。 ChatGPT風の画面みたく、ユーザがPromptを入力して、クリックしたら、Ollama PythonライブラリでローカルLLMを操作して出力を得るコードとなります。 今回は、手順に従って行けば、誰で出来るようにしてあります。 最初に、OllamaとStreamlitライブラリをインストールします。 pip install ollama streamlit 次に、app.pyとして次のファイルを作成を作成します。 import streamlit as st import ollama # Streamlitアプリケーションのタイトル st.title('Ollama Chatbot') # ユーザの入力を受け取るテキストボックス user_input = st.text_inp
streamlitを使えばWebアプリケーションが簡単に作成できます。 この記事では、streamlitでよく使う機能をサンプルコードと共に紹介し、それらを組み合わせたWebアプリケーションの作成方法を紹介していこうと思います。 目次 1. はじめに 2. streamlitの基本的な使い方 3. streamlitの応用的な使い方 4. テキストマイニングアプリを開発してみる 5. streamlitの注意点 6. まとめ 1. はじめに streamlitはPythonで簡単にWebアプリケーションを作成できるオープンソースのライブラリです。streamlitを使うことで、データの可視化や機械学習モデルのデバッグ、プロトタイプの作成など、様々な用途でWebアプリケーションを作成することができます。 また、streamlitは簡単なコードで高度なUIを作成することができ、ウェブフレームワ
Pythonの基礎を習得済みの方向けに、外部データを使うLlamaIndexの基本的な使い方を段階的に解説していきます。 Streamlitとは?まずは、今回使用するStreamlitについて簡単に説明します。Streamlitは、WEBアプリを簡単に作れるPythonライブラリです。HTMLやCSSの知識がなくても、PythonコードだけでインタラクティブなWEBアプリを作成できます。 Streamlitの特徴 WEBアプリが簡単に作れる HTML、CSSの知識が不要 デプロイが簡単 サーバー使用料が無料(Streamlit Community Cloud) 小さな組織やチームでのアプリ共有に最適 今回の内容今回は、LlamaIndexを使って外部からデータを取り込み、ChatGPTと連携してQ&AができるWEBアプリを作成します。 具体的には、外部データとしてテキストファイルを読み込み
import extra_streamlit_components as stx import streamlit as st import logging logging.basicConfig(level=logging.INFO) logger = logging.getLogger("__name__") logger.debug("調査用ログ") #ログインの確認 def check_login(): if 'authentication_status' not in st.session_state: st.session_state['authentication_status'] = None if st.session_state["authentication_status"] is None or False: st.warning("**ログインしてください**")
以下の記事が面白かったので、簡単にまとめました。 ・LlamaIndex v0.10 1. LlamaIndex v0.10「LlamaIndex v0.10」は、過去最大のアップデートです。 「LlamaIndex」が次世代の本番環境に対応したLLMアプリケーションフレームワークになるための大きな一歩となります。 主なアップデートは、次のとおりです。 ・llama-index-coreを作成し、Integrationを個別パッケージに分離 ・全IntegrationをLlamaHubで管理 (移行作業中) ・ServiceContext は非推奨 2. llama-index-core を作成し、Integration を個別パッケージに分離「LlamaIndex」は、何百もの「Integration」を含む広範なツールキットに進化しました。 ・150以上の データローダー ・35以上の
以下の記事が面白かったので、軽くまとめました。 ・LlamaIndex - High-Level Concepts 1. はじめに「LlamaIndex」は、カスタムデータを使用してLLMを利用したアプリケーション (Q&A、チャットボット、エージェントなど) を構築するためのパッケージです。 この記事では、次の事柄を紹介します。 ・LLMとカスタムデータを組み合わせるための「RAG」(Retrieval Augmented Generation) パラダイム ・独自のRAGパイプラインを構成するためのLlamaIndexの主な概念とモジュール 2. RAG (Retrieval Augmented Generation)「RAG」(Retrieval Augmented Generation : 検索拡張生成) は、カスタムデータでLLMを拡張するためのパラダイムです。 通常、次の2段階
Llama Index 0.9.13 memo 2023/12/10 時点の公式ドキュメントの和訳・要約 英語苦手な人向け とりあえず概要を知りたい人向け OpenAI のAPI KEY があるとスムーズ Llama Index Tutorial Getting Started Installation and Setup Pipからのインストール pip install llama-index コマンドを使って、LlamaIndexをインストールします。 注意:LlamaIndexは、NLTKやHuggingFaceなどの様々なパッケージのローカルファイルをダウンロードして保存する場合があります。これらのファイルが保存される場所を制御するために、環境変数 LLAMA_INDEX_CACHE_DIR を使用します。 ソースからのインストールも選択できますが、その方法は後述します。 Open
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く