はじめに RAG(Retrieval-Augmented Generation)の記事を検索すると、AWS BedrockやAzure AI Searchなどのクラウドサービスを利用した事例が多くヒットします。 しかし、初心者にとっては「裏側で具体的にどのような処理が流れているのか」が見えにくいこともあります。 そこで今回は、LlamaIndexをベースに、ローカルDB(ChromaDB)やローカルEmbedding(Ollama)を組み合わせた、技術的に基礎となるRAGの最小構成を実装してみました。AWSなどのクラウドのマネージドサービスに頼り切らず、各コンポーネントの役割を理解することを目的としています。 全体構成 今回のシステムの全体像は以下の通りです。 Documents: 知識源となるデータ(PDFやテキストファイル)。 Embedding (Ollama): 文書を多次元のベク

