タグ

CAGに関するmkusakaのブックマーク (2)

  • RAGとAgentic Searchの戦争を 終わらせに来た!!!

    インフルエンサー「RAGは所詮 先の時代の敗北者じゃけェ」 初学者「今までRAGをやってきた僕はまるで…バカじゃないですか!!? 時間がもったいだいっ!!!!」 ってなってると聞いたので、そもそもの誤解と実態について纏めたいと思う。勢いあまってアカウント作ったまま放置してたZennを解禁した。 なんで争いは起こったのか 発端は、私が把握する限りだと、1つは「Claude Codeの初期バージョンではRAG + ローカルベクトルDBを使用していましたが、エージェント型検索の方が一般的にうまく機能することがすぐにわかりました。」という下記のAnthropicエンジニア@bcherny氏からの提言。 そして先日OpenAI創設者の1人であるKarpathy氏から投稿された、LLM Wiki(知識データをローカルに加工・集約しナレッジグラフっぽくしてAgentic Searchする方法)が、RAG

    RAGとAgentic Searchの戦争を 終わらせに来た!!!
    mkusaka
    mkusaka 2026/04/09
    RAGとAgentic Searchの誤解を整理し、ベクトル検索RAGは死んでおらず用途で使い分けるべきと解説する。
  • 「Don’t Do RAG」巨大コンテキストを活かした超高速なCAGという新手法【論文解説】

    あけましておめでとうございます🎍 年末年始で、RAG(Retrieval-Augmented Generation) に関する記事や論文を読んでいたところ、とても挑発的なタイトルの論文に出会いました。それがDon’t Do RAG: When Cache-Augmented Generation is All You Need for Knowledge Tasksです。 Paper: GitHub: 要するに「検索なんてせずに、必要な文書は全部まとめてロードしちゃえ」という発想のようで、実験では 最大40倍の高速化 を達成したとのこと。今回は、この論文が提案する Cache-Augmented Generation (CAG) の要点を、ざっくり解説してみます。 1. RAGとCAGの違い:そもそも何が新しいの? ■ RAG:従来のRetrieve + Generate手法 Retri

    「Don’t Do RAG」巨大コンテキストを活かした超高速なCAGという新手法【論文解説】
    mkusaka
    mkusaka 2025/01/09
    RAG不要のCAG解説:Key-Valueキャッシュで最大40倍高速化、SQuAD/HotPotQAでBERTScore高評価。
  • 1