並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 628件

新着順 人気順

RAGの検索結果1 - 40 件 / 628件

RAGに関するエントリは628件あります。 AILLM開発 などが関連タグです。 人気エントリには 『とほほのAI入門 - とほほのWWW入門』などがあります。
  • とほほのAI入門 - とほほのWWW入門

    Copilot に質問するくらいで、これまであまり AI には積極的には関わってこなかったのですが、要望もあり、10日間ほどかけて勉強・整理してみました。しかし、最近の新化や変動が激しいため、このページの内容もすぐに古くなってしまう可能性があります。最新の動向は AI を活用するなどしてウォッチしてみてください。(2025.10.12 杜甫々) サブページ AIの歴史 AI関連用語 基本用語 機械学習 ディープラーニング 生成AI AIエージェント バイブコーディング モデルと入出力 モデル プロンプト トークン マルチモーダル MCP アーキテクチャ パラメータ数 LLM SLM GPU 学習方法・測定方法 教師あり学習 教師なし学習 ファインチューニング 転移学習 RAG AIの課題と未来 AI倫理ガイドライン・法律 ハルシネーション AGI シンギュラリティ AIモデル ChatGP

    • 【2025年5月完全版】RAG の教科書

      はじめに 昨今、AI の進化により、様々な分野での応用が進んでいます。特に、自然言語処理(NLP)の分野では、RAG( Retrieval-Augmented Generation)が注目されています。RAG は、情報検索と生成を組み合わせた手法であり、特に大規模言語モデル(LLM)と組み合わせることで、その性能を大幅に向上させることができます。 また、NativeRAG や GraphRAG, AgentRAG などさまざまな RAG のバリエーションが登場しており、これらは特定のユースケースやデータセットに対して最適化されています。 今回は、RAG の基本的な概念から、RAG のプロジェクトの進め方、精度向上の方法に至るまで詳しく解説します。 みなさんの GenAI Application の開発に役立てていただければ幸いです。 本記事は 5 万文字を超える大作となっております。 お時

        【2025年5月完全版】RAG の教科書
      • なぜObsidianが2025年になって注目されているのか | gihyo.jp

        前回までの連載のあと、2023年秋に『Obsidianで"育てる"最強ノート術』を刊行しました。そして2025年になって、Obsidianが大きく注目を集めています。今回はその背景と理由について解説します。 AIとの連携 ObsidianはノートアプリやPKM(Personal Knowledge Management)ツールとして注目を集めました。主な特徴として、この連載でも解説してきた次のことが挙げられます。 ローカル環境で動作する Markdownで書いたノートをリンクできる 階層型のタグで管理できる プラグインで拡張できる そんな中、2025年になって注目された背景として、「⁠AI(人工知能)との連携」があります。ここでは「生成AIの進化」「⁠RAGとMCPの登場」「⁠AIエージェントの登場」という3つの視点から紹介します。 生成AIの進化 2022年末にChatGPTが公開されて

          なぜObsidianが2025年になって注目されているのか | gihyo.jp
        • 生成AI、難しいと思ってた…でもこの3ステップで一気にラクになった。運用がうまく回る実践テク | ライフハッカー・ジャパン

          タスクによっては(もしかすると業務の大部分?)、生成AIにまかせたほうが自分でやるよりはるかに早くて質も高いのは認めざるを得ないところ。 いかにシームレスでマイクロに生成AIを活用できるかが業務効率化の肝になってきますよね。そうなると、日々使いまわすプロンプトの運用術は、重要な基本スキルといえそうです。 本記事では、「プロンプトづくり」「呼び出し」「管理」の3ステップでのプロンプト運用術を提案。テキスト入力効率化ツール「Text Blaze」の活用方法を中心にご紹介していきます。 プロンプトを考えたり呼び出したりがちょっと面倒……と考えている方、生成AIフレンドリーな環境づくりの一環としてぜひ参考にしてみてくださいね! ステップ1. プロンプトづくりScreenshot: 山田洋路 via Anthropicなにか生成AIに作業させたい……と思い立ったときには、とりあえずAnthropic

            生成AI、難しいと思ってた…でもこの3ステップで一気にラクになった。運用がうまく回る実践テク | ライフハッカー・ジャパン
          • MCPはなぜCLIに負けたのか —— 経緯と構造を整理する

            2024年11月、AnthropicがMCP(Model Context Protocol)を発表したとき、業界は一気に動いた。各社がMCPサーバーを競って実装し、「AI first」の証明としてMCP対応をアピールした。 それから約1年半。2026年3月現在、MCPの優位性はほぼ失われている。MCP不要論がHacker Newsのトップに繰り返し上がり、Anthropic自身がMCPのスケーリング問題を公式に認め、回避策をドキュメント化している。 この記事では、MCPがCLIに対して優位だった期間がなぜ短かったのか、その経緯と構造を整理する。 MCPが解決しようとした問題 MCPの設計前提は「モデルがツールのインターフェースを自力で理解できない」だった。 2024年11月時点の最先端はClaude 3.5 Sonnet。ツール呼び出しは可能だったが、複雑なCLI出力の安定的な解釈や、マル

              MCPはなぜCLIに負けたのか —— 経緯と構造を整理する
            • # 【AI駆動開発】100ページ超のPDFをMarkdownに変換してAIに読ませる方法 - Qiita

              【AI駆動開発】100ページ超のPDFをMarkdownに変換してAIに読ませる方法 はじめに 最近、大規模システムの引き継ぎ案件を受けました。 その案件はAI駆動の進め方が許可されていたので早速AIを利用して、引き継ぎどんどん進めていくぞ! と思ったのですが、いくつか困ったことがありました。 そう、資料のほとんどがエクセルで構成されているのと、外部API仕様書のほとんどが100P以上あるPDFデータになっていました。 AIを利用する上で、エクセルなどはもちろんのこと、重厚長大なPDF資料を読み取ることも苦手でございます。 なので、各種ファイルをAIが読みやすい資料にするべく、マークダウンの形式に書き換えていく必要があります。 今回はその中でもPDFをマークダウンに変換する処理についてを紹介できればと思います。 この記事の最後に「ワークフロー」と「Pythonスクリプト」を載せています。

                # 【AI駆動開発】100ページ超のPDFをMarkdownに変換してAIに読ませる方法 - Qiita
              • 「現在のLLMに真の推論は困難」──Appleの研究者らが論文発表

                米AppleのAI研究者らは10月7日(現地時間)、「GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models」(LLMにおける数学的推論の限界を理解する)という論文を発表した。 この論文は、LLM(大規模言語モデル)が、本当に人間のように論理的に考えて問題を解けるのか、という疑問を検証している。結論としては、LLMは今のところ、表面的なパターンを真似て答えを出しているだけで、真の推論能力は持っていないと主張している。 研究者らは、これらの問題点を検証するために、「GSM-Symbolic」という新しいテスト方法を開発した。これは、LLMの数学的推論能力を評価するためのベンチマークデータセット「GSM8K」を改良し、問題の表現や数字を柔軟に変えられるようにした

                  「現在のLLMに真の推論は困難」──Appleの研究者らが論文発表
                • AIエンジニアが本気で作ったLLM勉強会資料を大公開 〜そのまま使えるハンズオン用コード付き〜 | BLOG - DeNA Engineering

                  2025.12.05 イベントレポート AIエンジニアが本気で作ったLLM勉強会資料を大公開 〜そのまま使えるハンズオン用コード付き〜 by Tomoki Yoshida #ai #llm #rag はじめに こんにちは、2020年に新卒入社してからDeNAでAIエンジニアをしている吉田( @birdwatcherYT )です。 いつもは Qiita に技術記事を発信しているのですが、今回は社内の取り組みとしてエンジニアリングブログを書くことにしました(入社6年目でなにげに初執筆です)。 それでは、2025年12月1日に渋谷オフィスでのオフライン開催とオンラインのハイブリッド形式で開催した社内勉強会の開催レポートをお届けします。 3時間の講義&ハンズオン形式のLLM勉強会を実施 新規AIプロダクトを開発しているPdM&エンジニア向けに、AIをコアとしたプロダクト作りのために必要な知識を詰め

                    AIエンジニアが本気で作ったLLM勉強会資料を大公開 〜そのまま使えるハンズオン用コード付き〜 | BLOG - DeNA Engineering
                  • ソースコードをリポジトリ丸ごとLLMに読んでもらう方法

                    はじめに ソースコードをLLMに読んでもらうとき、単一ファイルだと楽なのですが、GitHubのリポジトリのように複数ファイルから構成されるプロジェクトだと困ってしまいますね。 リポジトリごとLLMに読んでもらえるようにいい感じにテキスト化できると良いですね。そんなソフトがありました。しかも2つ。 両方ともほとんどコンセプトは同じです。特に後者のgenerate-project-summaryは使い方も含めて、自分のやりたいことが、すでに開発者の清水れみおさんが以下の記事にまとめていました。 なので、あんまり書く必要ないのですが、せっかくなのでgpt-repository-loaderの使い方と、出力したファイルの別の活用方法について書いてみたいと思います。 追記:以下のも気になるので試してみたいです。試したら追記します。 gpt-repository-loaderでリポジトリをテキストに変

                      ソースコードをリポジトリ丸ごとLLMに読んでもらう方法
                    • Claude Codeに長期記憶を持たせたら、壁打ちの質が変わった

                      どうも、AIエンジニアの@noprogllamaです。普段はAIで日常の仕組み化をしたり、投資×テクノロジーの実践知を発信したりしています。 CLAUDE.mdという仕組みがあります。プロジェクトのルートに置いておくと、Claude Codeがセッション開始時に読み込んで、プロジェクトの方針や技術スタックを把握してくれます。開発に必要な情報はこれで十分伝わります。 ですが、CLAUDE.mdには書けないものがあります。 「前にこの方針で議論して、こういう理由で却下したよね」「あの時ハマったの、覚えてる?」——過去の会話の文脈です。 私はClaude Codeを開発だけでなく壁打ち相手としても使っています。戦略の相談、記事の構成、設計判断の議論。こういう用途では、過去に何を話したかが重要です。新しいセッションを開くたびに前提の共有からやり直すのは、率直に言ってしんどい。毎朝出社したら同僚が記

                        Claude Codeに長期記憶を持たせたら、壁打ちの質が変わった
                      • サイバーエージェント社員の20%が使うAIプラットフォーム「Dify」、プロダクト主導で3,000時間/月削減する方法 | CyberAgent Developers Blog

                        透明性を高める公開ロードマップ 利用者との信頼構築のためにも、現在運営として何を考えているかわかるよう、機能ロードマップもSlackのリスト機能を活用して公開しています。 v0 (Vercel社が提供する生成AIによって画像・自然言語からUIコードを生成するツール)を使ったプロトタイプなどを使い、ここでやり取りすることにより、各部署/グループ会社のAI活用推進者とも連携をとりつつ、個々のステークホルダーとのやり取りが断片化しないように合意形成を進められます。 OpenView Partners (PLGの提唱企業)によるNotionなどの事例 継続的なカスタマイズ開発 私たちのプロジェクトでは、Difyをシングルテナントのまま、全ユーザーが自由な相手を選べるReBAC(関係ベースのアクセス制御)のアプリ共有機能を独自に実装しました。これにより、利用者ごとの組織・利用形態に合わせた柔軟にアプ

                          サイバーエージェント社員の20%が使うAIプラットフォーム「Dify」、プロダクト主導で3,000時間/月削減する方法 | CyberAgent Developers Blog
                        • ChatGPTに社内文書に基づいた回答を生成させる仕組みを構築しました - コネヒト開発者ブログ

                          はじめに はじめまして、8月にコネヒトに入社したy.ikenoueです。 突然ですがみなさん、生成AIは使っておりますでしょうか? ChatGPTやStable Diffusionといった代表的な生成AIの発表から約1年が経過し、そろそろブームも落ち着くかと思っていたのですが、つい先日もOpenAI DevDayにてChatGPTに関する様々なアップデートが発表されるなど、相変わらず目まぐるしい日々が続いていますね。 弊社における生成AIの活用状況はというと、以前に下記の記事にて、Slack上でChatGPTと会話できる環境を社内提供しているという取り組みをご紹介しました。 tech.connehito.com 本日は、上記の社内ツールに新たに追加した「社内文書の参照機能」についてご紹介します。 「社内文書の参照機能」の概要と開発動機 まずは「社内文書の参照機能」の概要と開発にいたった動機

                            ChatGPTに社内文書に基づいた回答を生成させる仕組みを構築しました - コネヒト開発者ブログ
                          • 「Notebook LM」のつかいかた ~RAGを手軽に構築、自分専用にカスタマイズした生成AIを使い倒す【柳谷智宣のAI ウォッチ!】

                              「Notebook LM」のつかいかた ~RAGを手軽に構築、自分専用にカスタマイズした生成AIを使い倒す【柳谷智宣のAI ウォッチ!】
                            • 話題の ChatGPT + LangChain で、膨大な PDF ドキュメントの内容を爆速で把握する - Qiita

                              はじめに 本記事では、ChatGPT と LangChain の API を使用して、PDF ドキュメントの内容を自然言語で問い合わせる方法を紹介します。 具体的には、PDF ドキュメントに対して自然言語で問い合わせをすると、自然言語で結果が返ってくる、というものです。 ChatGPT と LangChain を使用することで、下記のような複数ステップの仕事を非常に簡単に実行させることができます。 PDF ドキュメントからテキストを抽出して複数に分割する 分割したテキストからテキスト間の関連を表すベクターデータを作成する 作成したベクターデータをベクターストアに格納しておく ChatGPT に外部から与えたベクターストアを使って問い合わせに答えるようにさせる これにより、大量の PDF ファイルを自動的に解析し、必要な情報を素早く抽出できるようになります。 本記事では、ChatGPT と

                                話題の ChatGPT + LangChain で、膨大な PDF ドキュメントの内容を爆速で把握する - Qiita
                              • RAGの精度向上手法、がっつりまとめ【2025年】

                                この記事は何 ナレッジセンスでは、エンタープライズ向けにRAGサービスを提供しています。その中で「RAGは簡単に作れるけど、精度を上げるのは難しい」という課題に日々向き合っています。本記事は、2024~2025年に公開された研究や事例をもとに、RAGの回答精度を高める代表的なアプローチを ざっくりまとめたものです。 ざっくりサマリー この記事では、企業の社内データを利用したRAG、特に大企業で「エンタープライズRAG」での実装手法についてざっくり理解します。まず、エンタープライズRAGでのよくある課題をお伝えします。その上で、2025年現在の最新動向を踏まえ、評価手法のような基本戦略から、ちょっと高度なテクニックまで、RAGの精度を向上手法を概観します。 (エンタープライズRAGとは、社内の膨大なデータをLLMが活用可能にするためのソリューションのことです。) RAG、実装は簡単。しかし、

                                  RAGの精度向上手法、がっつりまとめ【2025年】
                                • ChatGPTの10ヶ月と開発トレンドの現在地

                                  9/28の #日本CTO協会 さんのイベントで登壇した資料を公開しました。 「ChatGPTの10ヶ月と開発トレンドの現在地」 開発のトレンドの最新情報をざっくり纏めています。 ・Prompt Engineering開発の現在地 ・RAG開発の現在地 ・Plugin開発の現在地 ・GPT-V…

                                    ChatGPTの10ヶ月と開発トレンドの現在地
                                  • RAGの精度が73%から100%に向上した話 ─ チャンキング戦略の比較検証

                                    はじめに RAG(Retrieval-Augmented Generation)システムを構築していると、「なぜか精度が上がらない」という壁にぶつかることがあります。 本記事では、社内規程文書を対象としたRAGシステムで、回答精度を73.3%から100%に改善した過程を紹介します。検証した複数のチャンキング戦略の中で、意外にも最もシンプルな解決策が最も効果的だったという結果になりました。 また、「Re-rankingを導入すれば精度が上がる」と思っていたのですが、逆に精度が下がるという予想外の結果も得られました。その理由についても考察します。 プロジェクト構成 技術スタック レイヤー 技術

                                      RAGの精度が73%から100%に向上した話 ─ チャンキング戦略の比較検証
                                    • グーグルの生成AIサービス「NotebookLM」が日本でも一般公開、調査と制作を助けてくれるAIパートナー

                                        グーグルの生成AIサービス「NotebookLM」が日本でも一般公開、調査と制作を助けてくれるAIパートナー
                                      • LLMをガッツリ使いこなしている人だけが知っていること

                                        GPT-4oの入力コンテキストは殆ど嘘だということ。 例えば、DRMをクラックした本とかを読ませて「なんて書いてある?」みたいなことを聞いてみると分かるのだが、後半については殆ど無視される。128Kトークンという巨大な入力コンテキストウィンドウを持っていることになっているが、これは殆ど嘘、ごまかしであり、出力を高速化するために「渡されたものの前のほうだけ読んで適当に回答する」ということをやってくる。でもこれについて問題視している人をほとんど見たことがないので、とっくにみんな生成AIには飽きていて使ってないんだと思う。 現実的な対策としては、RAGをがんばるか、あるいはテキストを分割して適切なサイズにしてから渡していって最後にその結果を統合するか。それか「OpenAIさんはそのレベルで信用できないことをやってくる」ということを前提にそもそも使わないか。

                                          LLMをガッツリ使いこなしている人だけが知っていること
                                        • Obsidianを「ChatGPTのナレッジ保管庫」にしよう|ひつじ

                                          「そのmdってどうやって用意するの?」という質問があったので、実際のツール運用レベルまで落としていきます。 この記事でやること↓ ・Obsidian で「案件ナレッジ倉庫」をつくる ・mdファイルを作る ・それらを ChatGPT の Projects にアップロード 「この案件なら、このプロジェクトを開けば全部そろっている」状態を作ります。 ちょっと難しそうに感じるかもしれませんが、 この記事でやっていくことは「Obsidianのフォルダを作る → 記事を書く → ChatGPT に渡す」という3ステップだけです。 Obsidian は「ローカルの Markdown ファイルをそのまま扱うノートアプリ」です。Windows / macOS / iOS / Android に対応していて、データは全部あなたのPCやスマホのフォルダに .md ファイルとして保存されます。 メモを書いたら、そ

                                            Obsidianを「ChatGPTのナレッジ保管庫」にしよう|ひつじ
                                          • LLMをもっと賢くする:ナレッジグラフ実践入門

                                            「ChatGPTは賢いのに、なぜ業務では使いにくいのか」。その答えがナレッジグラフにあります。本書は、RAGだけでは解けない問題の正体を明らかにし、ナレッジグラフがLLMに何をもたらすかを、入門から世界の活用事例、実装アーキテクチャ、AI Agentとの統合まで一気通貫で解説します。エンタープライズ規模でのKG実装は難しい。だからこそ、何が難しいのかを正確に理解することが第一歩です。

                                              LLMをもっと賢くする:ナレッジグラフ実践入門
                                            • AIコーディングの常識が変わる!Claudeを"覚醒"させる知性、「Serena」徹底解説|Kyutaro

                                              AIを使ってコーディングをしていると、こんな風に感じたことはありませんか? 「大きなファイルを読み込ませるたびに、大量のトークンが消費されてしまう…💸」 「1つのバグを直してもらったら、別の3つのバグが生まれてしまった…😭」 「AIがコードの全体像を理解してくれなくて、何度も同じ説明を繰り返している…🌀」 これらの悩みは、AIがコードを「テキストの羅列」としてしか見られていないことに起因します。しかし、もしAIが人間のようにコードの「意味」や「構造」を理解してくれたら…? 今回は、そんな夢のような未来を実現するツール「Serena」について、その魅力と使い方を、AI技術に触れたことのある皆さまに向けて、じっくりと解説していきます! そもそも「Serena」って何者? なぜ必要なの?Serenaは、一言でいうと「AI(特にClaude)に、あなたのプロジェクトコードを深く理解させるため

                                                AIコーディングの常識が変わる!Claudeを"覚醒"させる知性、「Serena」徹底解説|Kyutaro
                                              • なぜ、Claude Codeは、RAGを捨ててAgentic Searchを選んだのか?

                                                先日、Claude Codeの開発者でありAnthropicのエンジニアでもあるBoris Cherny氏が、「初期のClaude CodeではRAG+ローカルベクターDBを使っていたが、最終的にAgentic Searchの方が圧倒的に良いと分かった」 という発言がありました 私はBoris氏のこの投稿を見たとき「やっぱ、そうだよな」と思いました。なぜなら私もRAGで検索システムを作った際に似たようなことを考えていたからです。この記事ではこの騒動の背景を整理しつつ、なぜClaude CodeがRAGを捨ててAgentic Searchを選んだのかを説明します。 Boris Cherny氏について Boris Cherny氏はAnthropicのエンジニアであり、Claude Codeの創設者 でもあります。また『Programming TypeScript』の著者でもあり、複数の技術系ポ

                                                  なぜ、Claude Codeは、RAGを捨ててAgentic Searchを選んだのか?
                                                • ゼロからRAGを作るならこんなふうに

                                                  どんな人向けの記事? これからRAGを作ってみたい DifyやLangChainにこだわらず、自分で開発をハンドリングしたい ベクトルDBや埋め込みモデルの選定の勘所をサッと知りたい ここではRAGとは何かのような話題は扱いません。 RAGが、ほぼAI活用の現実的な最適解になりつつある LLMは高度な知的タスクを実行可能である。 そんな理解が世界に広まっていく中で、企業は自らが蓄えたデータをLLMに組み合わせてどう活用するか躍起になっています。これからはビッグデータだ!という時代を経ているため、情報インフラに投資した企業も多く、AIでデータを活用する流れはもはや確定路線と言えます。 この問題を解決する手法として一番最初に思いつくのは、モデル自体を改変するファインチューニングです。しかし、ファインチューニングにはいくつかの実用上の問題があります。ファインチューニング自体に専門知識が必要である

                                                    ゼロからRAGを作るならこんなふうに
                                                  • AIアプリケーション開発を体系的に学ぶ 『AIエンジニアリング』全章紹介

                                                    AIエンジニアリングを、広めたい。 共訳した書籍「AIエンジニアリング(オライリー・ジャパン)」が2025年11月28日(今週!)に発売します。 共訳者であるkagayaさんがこちらの記事で「AIエンジニアリングとは何か?」という概念自体について掘り下げてくれました。 簡潔に述べると、本書内でAIエンジニアリングは「基盤モデルを使ってアプリケーションを構築するプロセス」と定義されており、この分野はGPT-3.5、GPT-4といったモデルたちがAPIとしてアクセスできるようになってから急速に発展してきました。 本記事では、書籍『AIエンジニアリング』がどのようにその学びを助けてくれるのか、その内容を紹介していきます。 この2、3年で急速に発展してきたこの分野では、我々訳者を含め多くの開発者が手探りで挑戦を続けてきました。コストやレイテンシーといった制約の中で、いかにAIの能力を引き出し、確か

                                                      AIアプリケーション開発を体系的に学ぶ 『AIエンジニアリング』全章紹介
                                                    • Claude Desktopとmcp-server-qdrantで超お手軽ナレッジベースの構築

                                                      TL;DR qdrant/mcp-server-qdrantを使えばClaude Desktopからベクトル検索エンジンを操作できるよ ベクトルデータベースなので、LLMとの相性が良いよ 「ここまでのチャットを整理して保存しておいて」ができるのは、すごすぎるよ 1. Qdrantとは Qdrantはベクトル検索エンジンです。テキストをベクトル化して保存し、意味的な類似性に基づいて検索することができます。 通常のキーワード検索と異なり、ベクトル検索では単語の正確な一致ではなく、コンテンツの意味的な類似性に基づいて結果を返します。これにより、「先週のミーティングの決定事項」といった自然言語のクエリで、関連する情報を見つけることができます。 このQdrantとClaudeを連携させることで、ベクトルDBをメモ帳として扱うブルジョワなナレッジマネジメントが実現します。 PostgreSQLやSQL

                                                        Claude Desktopとmcp-server-qdrantで超お手軽ナレッジベースの構築
                                                      • オレオレ RAG をさくっと作る

                                                        この記事は間違いが含まれている可能性があります。 もともと自社のドキュメントでは Meilisearch で日本語全文検索を実現していましたが、ドキュメントに質問できるようしたいと思い、簡単な RAG を作りたい!と思っていました。 とりあえず、ドキュメントを分割し、ベクトル化してベクトルデータベースに突っ込んで、質問をベクトル化して結果を引っ張り、それを LLM に食べさせて解説させる、というのができればよいということがわかりました。 ベクトル化はよく使われている OpenAI Embeddings API を利用し、ベクトルデータベースは普段からよく使っている DuckDB に VSS (Vector Similarity Search for DuckDB) という拡張を使うことにしました。 自社のドキュメントをなんとかうまいこと分割して、あとは分割したドキュメントを API を叩い

                                                          オレオレ RAG をさくっと作る
                                                        • 2025年はRAGの次にAIエージェントが来る

                                                          はじめに 2024年のAI界隈では「RAG」が一巡し、その可能性と限界が明確になってきました。最も顕著な点は「RAGは魔法の杖ではない」という認識の広がりではないでしょうか? RAGは確かに、既存の文書やデータを活用したAIの応答精度向上に貢献してきました。しかし、単純な質問応答を超えた複雑なタスクの実行や、動的な状況への適応には限界があることも明らかになっています。この限界を超えるための次のステップとして注目を集めているのが「AIエージェント」です。 OpenAIのCEOであるサム・アルトマンが「次のブレークスルーはエージェントだ」と発言していたり Anthropic社員がこのようなスピーチをしたりしています。 AIエージェントとは AIエージェントは、特定のタスクや目的のために設計された自律的なAIシステムです。たとえば、会議の参加者の予定を自動で調整して最適な時間を設定するAIアシス

                                                            2025年はRAGの次にAIエージェントが来る
                                                          • RAG入門: 精度改善のための手法28選 - Qiita

                                                            RAGの精度改善するために何があるかを学びました。基本系のNaive RAGを知っている人向けの記事です。 方法が多すぎるので、Youtubeの「RAG From Scratch」を中心に少し整理してみました。LangChainをよく使っているので、LangChain出典が多いです。 全体像 まずは、RAGの全体像。Indexingが同じ流れにあるのが少しわかりにくいのですが、実行タイミングとしてはRAGの前準備としてやっておきます。 画像出典: RAG from scratch: Overview もう少し粒度を細かくした図です。 画像出典: RAG from scratch: Overview 表形式で分類します。Generationだけ少し特殊です。 大分類 中分類 内容

                                                              RAG入門: 精度改善のための手法28選 - Qiita
                                                            • ローカルRAGを手軽に構築できるMCPサーバを作りました

                                                              はじめに 最近話題のMCP(Model Context Protocol)記事です。MCPに関しては、同僚の李さんが素晴らしい記事を書いてくださいましたので、MCP自体の概要に関しては以下記事参照ください(お約束)。 今回は、LLMの代表的なユースケースとも言えるRAG(Retrieval-Augmented Generation)です。RAGはドキュメントから関連情報を検索し、AIの回答生成に活用する技術で、専門知識や最新情報を必要とするタスクに使われます。以前にTanuki-8BとOllamaとDifyを使って日本語ローカルRAG構築という記事でローカルRAGの構築について説明したので詳しくはそちらを参照してください。簡単なRAGの構成図としては以下となります(記事より引用)。 今回は、このRAGをMCPを使って実現します。つくるMCPサーバの中身としてはPostgreSQLでベクトル

                                                                ローカルRAGを手軽に構築できるMCPサーバを作りました
                                                              • RAGの実案件に取り組んできた今までの知見をまとめてみた | DevelopersIO

                                                                はじめに 新規事業部 生成AIチーム 山本です。 ChatGPT(OpenAI API)をはじめとしたAIの言語モデル(Large Language Model:以下、LLM)を使用して、チャットボットを構築するケースが増えています。通常、LLMが学習したときのデータに含まれている内容以外に関する質問には回答ができません。そのため、例えば社内システムに関するチャットボットを作成しようとしても、素のLLMでは質問に対してわからないという回答や異なる知識に基づいた回答が(当然ながら)得られてしまいます。 この問題を解決する方法として、Retrieval Augmented Generation(以下、RAG)という手法がよく使用されます。RAGでは、ユーザからの質問に回答するために必要そうな内容が書かれた文章を検索し、その文章をLLMへの入力(プロンプト)に付け加えて渡すことで、ユーザが欲しい

                                                                  RAGの実案件に取り組んできた今までの知見をまとめてみた | DevelopersIO
                                                                • [翻訳]LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜

                                                                  この記事は "What We’ve Learned From A Year of Building with LLMs" という記事を著者の一人である Eugene Yan さんから許可を得て翻訳したものです。 https://applied-llms.org/ Thank you for giving me a permission to translate this wonderful article! 著者の方々 Eugene Yan Bryan Bischof Charles Frye Hamel Husain Jason Liu Shreya Shankar 原文の公開日 2024/6/8 今は大規模言語モデル(LLM)を使った開発がとってもエキサイティングな時期です。この1年間で、LLMは実世界のアプリケーションに対して「十分に良い」ものになりました。そして、年々良くなり、安く

                                                                    [翻訳]LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜
                                                                  • RAGの実装戦略まとめ - Qiita

                                                                    それでは以下、簡単なデモを含めながら個別に説明していきます。 1. ハイブリッドサーチ こちらは、性質の異なる複数の検索方式(例えばベクトル検索とキーワード検索)を組み合わせて検索精度を向上させる手法になります。 各検索方式単体の場合に比べ、性質の異なる検索方式を組み合わせ、ある種いいとこ取りをする事で、検索性能の向上が期待できます。 今回はBM25でのキーワードベースの類似度検索と通常のベクトル検索を組み合わせていきます。 BM25について簡単に説明しておくと、文脈や文章構造は完全に無視した上で、文書内の単語を全てバラバラに分割し、文書内の各単語の出現頻度と文書間におけるレア度を加味した特徴量を算出します。 つまり、特定の文書内の各単語の数をカウントしてヒストグラムを作れば、似たような文書には同じような単語がよく出るはずなので(同じようなヒストグラムの形になるので)、類似度が高くなる性質

                                                                      RAGの実装戦略まとめ - Qiita
                                                                    • オライリーのLLMのプロンプトエンジニアリングは、LLMプロダクト開発者の教科書|erukiti

                                                                      簡単にいうと、LLMの仕組みを理解してLLMの気持ちになってどういうコンテキストを与えたらうまくいくのか?どうやれば安定したLLMプロダクトを開発できるのか?というLLMプロダクト開発の基本が書かれた本です。 内容はいささか古く(おそらく2024年中頃までに書かれている)、この本から即座に実践に入れる類いの本ではないので、まさに「教科書」です。この本を索引として、必要な知識を深掘りする必要性があります。 この本に書かれている知識のまま、知識更新を怠ると極めて危険です。いろいろな情報がアップデートされています。 この記事に間違いとか解釈違いとかあったら、是非ご連絡ください! コーディングエージェント使いが読むべきか? 非エンジニアが読むべきか? 内容の解説 という構成です。 コーディングーエージェント使いが読むべきか?最近コーディングエージェントを使う人が一気に増えました。そういったコーディ

                                                                        オライリーのLLMのプロンプトエンジニアリングは、LLMプロダクト開発者の教科書|erukiti
                                                                      • SiteMCP: 任意のサイトを丸ごとMCPサーバー化

                                                                        https://ryoppippi.com を MCP サーバーとしてClaudeから参照している様子 ウェブサイトの内容をまるごとAIに参照させたい、そんな願いを叶えるツールがあります。 その名も sitemcp です。 このツールを使うと、任意のサイトのページをfetchして、MCPサーバーとして立ち上げることができます。 MCP サーバーとは MCPは「Model Context Protocol」の略で、AIアシスタントが外部データにアクセスするための仕組みです。要するに、AIに「このウェブサイト読んでね」とか「このファイル見てね」と渡せるようにするプロトコルです。 使い方 詳しいインストールの仕方は GitHub の README を見てください。 ここではClaude Desktopから使う方法を紹介します。 ...と言ってもそんなに難しいことはありません。 例えば、Daisy

                                                                          SiteMCP: 任意のサイトを丸ごとMCPサーバー化
                                                                        • 方眼紙Excel→Markdown変換、結局LLMしか勝たん話【全手法比較】

                                                                          日本の現場でよく見かける「方眼紙Excel」——全セルを正方形に統一し、セル結合を多用してレイアウトを作るあのスタイルです。工事仕様書・工程表・設計図・申請書類など、建設・製造・行政の現場で今も現役です。 今回使ったサンプルはこんなものです。 工事仕様書:基本情報・材料仕様・施工注意事項をセル結合で構造化 工程表:横軸が月、縦軸が工種のガントチャート。塗りつぶしセルで期間を表現 数量集計表:設計・計画・実施数量の比較表と埋め込み棒グラフ これをMarkdownに変換したい、というニーズが増えています。ドキュメント管理のモダン化、AIへの入力、RAGのインデックス化……いずれも「テキスト形式で意味が伝わること」が前提です。 結論を先に言います。方眼紙Excel → Markdown変換は、LLMを使うのが現実解です。 理由は後述しますが、従来ツールは「セル構造」を変換するのに対し、LLMは「

                                                                            方眼紙Excel→Markdown変換、結局LLMしか勝たん話【全手法比較】
                                                                          • 自分専用AIを作る グーグル「NotebookLM」を家電取説・辞書・時刻表で使う

                                                                              自分専用AIを作る グーグル「NotebookLM」を家電取説・辞書・時刻表で使う
                                                                            • 社内問い合わせをAIエージェント化して爆速で解決できるようにした

                                                                              はじめに:社内問い合わせがじわじわ開発を削っていく ダイニーでは、飲食店舗から日々、運用サポートチームに問い合わせが寄せられます。そして、運用サポートチームだけでは解決できない技術的な問い合わせを開発チームへつなぐ"入口"が 社内問い合わせシステム です。 「会計がうまくいかない」「設定画面の操作が分からない」といった声が、社内問い合わせシステムを通って日々エスカレーションされます。 ただ、運用が軌道に乗るにつれて次の課題が顕在化しました。 1日あたり約8件の問い合わせが発生する 1件の調査に数時間かかる リードタイムの中央値が10日 ステータス管理が弱く、クローズされずに放置される 社内の問い合わせ対応は、目立ちにくいのに確実に開発チームの時間を削ります。そこで、社内問い合わせシステムを AI エージェント化し、定型的な調査とリマインドを自動化して、対応をチーム全体でスケールさせる方針に

                                                                                社内問い合わせをAIエージェント化して爆速で解決できるようにした
                                                                              • RAGの性能を改善するための8つの戦略 | Fintan

                                                                                近年、OpenAIのGPT-4やGoogleのGemini、MetaのLLaMAをはじめとする大規模言語モデル(Large Language Model:LLM)の能力が大幅に向上し、自然言語処理において優れた結果を収めています[1][2][3]。これらのLLMは、膨大な量のテキストデータで学習されており、さまざまな自然言語処理タスクにおいて、タスクに固有なデータを用いてモデルをファインチューニングすることなく、より正確で自然なテキスト生成や、複雑な質問への回答が可能となっています。 LLM-jp-eval[4]およびMT-bench-jp[5]を用いた日本語LLMの評価結果。Nejumi LLMリーダーボード Neoより取得。 大規模言語モデルは近年急速な進歩を遂げていますが、これらの進歩にもかかわらず、裏付けのない情報や矛盾した内容を生成する点においては依然として課題があります。たとえ

                                                                                  RAGの性能を改善するための8つの戦略 | Fintan
                                                                                • 米国で話題のRAGのセキュリティ脅威についてまとめてみた - Qiita

                                                                                  はじめに こんばんは、mirukyです。 前回の記事「コーディングが楽になったからこそ気をつけるべきセキュリティ」では、AIコーディング時代のセキュリティリスクについてまとめました。 今回は、あの記事の中では深く触れられなかったRAG(Retrieval-Augmented Generation)システムのセキュリティ脅威に焦点を当てます。 RAGは今、企業のAI活用で最も導入が進んでいるアーキテクチャです。 社内ドキュメントをベクトルDBに取り込み、LLMに「自社の知識」を与える。Microsoft 365 Copilot、Amazon Q Business、社内チャットボット…どれもRAGを核としています。 私の記事でも、度々RAGを用いたナレッジベース構築を行ってきました。 しかし、米国のセキュリティ研究コミュニティでは、RAG固有の脅威が次々と報告され始めています。 2026年3月

                                                                                    米国で話題のRAGのセキュリティ脅威についてまとめてみた - Qiita

                                                                                  新着記事