並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 6 件 / 6件

新着順 人気順

python logging basicconfig stdout and fileの検索結果1 - 6 件 / 6件

  • LlamaIndexを使ってローカル環境でRAGを実行する方法 - 電通総研 テックブログ

    こんにちは。電通総研コーポレート本部システム推進部の山下です。 最近はChatGPTなどのLarge Language Model(LLM)を利用したAIが話題ですね。 そのLLMを応用したRetrieval-Augmented Generation(RAG)という技術があります。 これは、LLMに文書検索などを用いて関連する情報を与えて回答させることで、 LLMが知識として持っていない内容を回答させたり誤った情報を答えてしまうハルシネーションを抑止する技術です。 今回はこのRAGをLlamaIndexというライブラリを使ってローカル環境で実装する方法について紹介します。 なぜローカル環境でLLMを利用したいのか 大変便利なツールのLLMですが、利用が難しいこともあります。 例えば、機密情報を取扱いたい、外部インターネットへの接続に制限が掛かっているといった場合です。 最終的にOpenAI

      LlamaIndexを使ってローカル環境でRAGを実行する方法 - 電通総研 テックブログ
    • Introducing default data integrity protections for new objects in Amazon S3 | Amazon Web Services

      AWS News Blog Introducing default data integrity protections for new objects in Amazon S3 Update on December 2, 2024: Updated SDKs with default integrity protections will be available in the coming weeks. At Amazon Web Services (AWS), the vast majority of new capabilities are driven by your direct feedback. Two years ago, Jeff announced additional checksum algorithms and the optional client-side c

        Introducing default data integrity protections for new objects in Amazon S3 | Amazon Web Services
      • 3分プロトタイピング: RAGを使ってAIチャットアプリケーションに知識を与える - ROUTE06 Tech Blog

        連載「3分プロトタイピング」 Streamlitを用いたAIチャットアプリ RAGを使ってAIチャットアプリケーションに知識を与える(この記事です) ベクトルデータベース超入門 前回の投稿でStreamlitを使ったAIとチャットするアプリケーションの雛形を作成しました。 tech.route06.co.jp あのアプリケーションにくまモンについて聞いてみるとこんな回答が返ってきます。 くまモンについて教えてください それっぽいけど違いますね。今回は、このように特定のキャラクターや事象について正しい情報をAIに返してもらう方法を紹介します。説明が長くなるので3分を超えてしまいますが、コードは3分で書けるようになっていますので、早速やってみましょう。 AIに知識を教える3つの方法 まず、AIにキャラクターなどの「知識」教える3つの方法について紹介します。 プロンプトエンジニアリング Retr

          3分プロトタイピング: RAGを使ってAIチャットアプリケーションに知識を与える - ROUTE06 Tech Blog
        • LlamaIndex v0.8 クイックスタートガイド - Python版|npaka

          Python版の「LlamaIndex」のクイックスタートガイドをまとめました。 ・LlamaIndex v0.8.59 【最新版の情報は以下で紹介】 1. LlamaIndex「LlamaIndex」は、プライベートやドメイン固有の知識を必要とする専門知識を必要とする質問応答チャットボットを簡単に作成できるライブラリです。 2. LlamaIndexの5つのステージ「LlamaIndex」には、5つのステージがあります。 2-1. Loadingデータソース (テキストファイル、PDF、Webサイト、データベース、APIなど) からデータを読み込みます。 「Loading」の主要コンポーネントは、次のとおりです。 ・Document : データソースのコンテナ ・Node : Documentを分割したもの。チャンクとメタデータが含まれる ・Connector : データソースからDoc

            LlamaIndex v0.8 クイックスタートガイド - Python版|npaka
          • LlamaIndex v0.10 クイックスタートガイド - Python版|npaka

            v0.10 では大規模アップデートがありました。 ・llama-index-coreを導入し、Integrationを個別パッケージに分離 ・ServiceContextは非推奨 ・全IntegrationをLlamaHubで管理 2. LlamaIndexの5つのステージ「LlamaIndex」には、5つのステージがあります。 2-1. Loadingデータソース (テキストファイル、PDF、Webサイト、データベース、APIなど) からデータを読み込みます。 「Loading」の主要コンポーネントは、次のとおりです。 ・Document : データソースのコンテナ ・Node : Documentを分割したもの。チャンクとメタデータが含まれる ・Connector : データソースからDocumentおよびNodeを取り込むモジュール 2-2. Indexingデータのクエリを可能にす

              LlamaIndex v0.10 クイックスタートガイド - Python版|npaka
            • はじめての自然言語処理 MixCSE による教師なし文章ベクトル生成 | オブジェクトの広場

              今回は教師なしの文章ベクトル化手法である MixCSE の検証です。教師なし学習ですから教師ありの手法よりは精度的に不利でしょうが、局面によっては役に立つケースもあるのでは?と試してみることに。公開されているコードは transformers ベースなのですが、今回は Colab の TPU で動かしてみたので、その方法も紹介しますね。 1. はじめに 今回は教師なしの文章ベクトル化手法である MixCSE1 の検証をしてみました。 本連載では文章ベクトル化のモデルとして、 Sentence BERT を取り上げたこと(第9回, 第18回)がありますが、品質の良いベクトルを生成する為には大量かつ良質の教師データが必要でした。 法律や特許のような特定領域に特化した文章を扱う局面では、対象領域の文書で学習したモデルを使いたいところですが、特定領域限定の都合良いデータはなかなか手に入りません。そ

                はじめての自然言語処理 MixCSE による教師なし文章ベクトル生成 | オブジェクトの広場
              1