ブックマーク / tech.dentsusoken.com (1)

  • LlamaIndexを使ってローカル環境でRAGを実行する方法 - 電通総研 テックブログ

    こんにちは。電通総研コーポレート部システム推進部の山下です。 最近はChatGPTなどのLarge Language Model(LLM)を利用したAIが話題ですね。 そのLLMを応用したRetrieval-Augmented Generation(RAG)という技術があります。 これは、LLMに文書検索などを用いて関連する情報を与えて回答させることで、 LLMが知識として持っていない内容を回答させたり誤った情報を答えてしまうハルシネーションを抑止する技術です。 今回はこのRAGをLlamaIndexというライブラリを使ってローカル環境で実装する方法について紹介します。 なぜローカル環境でLLMを利用したいのか 大変便利なツールのLLMですが、利用が難しいこともあります。 例えば、機密情報を取扱いたい、外部インターネットへの接続に制限が掛かっているといった場合です。 最終的にOpenAI

    LlamaIndexを使ってローカル環境でRAGを実行する方法 - 電通総研 テックブログ
    macro1597
    macro1597 2024/01/23
  • 1