並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 23 件 / 23件

新着順 人気順

自然言語の検索結果1 - 23 件 / 23件

  • 生成AIのハルシネーションは原理的に排除不能。不完全性定理など数学・計算機理論で説明 モデル改良や回避システムでも不可避とする論文(生成AIクローズアップ) | テクノエッジ TechnoEdge

    2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間の気になる生成AI技術・研究をピックアップして解説する連載「生成AIウィークリー」から、特に興味深い技術や研究にスポットライトを当てる生成AIクローズアップ。 今回は、大規模言語モデル(LLM)は自身が出力する「幻覚」(ハルシネーション)からは避けられない現象を指摘した論文「LLMs Will Always Hallucinate, and We Need to Live With This」に注目します。幻覚とは、事実と異なる出力をLLMが実行してしまう現象を指します。 この研究では、LLMの幻覚が単なる偶発的なエラーではなく、これらのシステムに内在する避けられない特性であると主張しています。研究者らは、幻覚がLLMの根本的な数学的・論理的

      生成AIのハルシネーションは原理的に排除不能。不完全性定理など数学・計算機理論で説明 モデル改良や回避システムでも不可避とする論文(生成AIクローズアップ) | テクノエッジ TechnoEdge
    • 医薬品検索にベクトル検索を導入したら、デフォで検索ニーズをほぼ満たせそうだった話

      どんな人向けの記事? 医薬品のような難しい検索ニーズにこたえるためにベクトル検索を利用する知見を見てみたい MySQLの全文検索と、ベクトル検索の精度や速度を比較してみたい ベクトルDBとEmbeddingモデルを利用した簡単なベクトル検索の実装方法を知りたい 医薬品の検索ニーズは多様なので、ベクトル検索で解決できるか試したい 1つの医薬品を指す名称は、複数存在するため医薬品検索は意外と面倒な問題です。 例えば、日本人なら頭痛や生理痛、発熱したときに「ロキソニン」を飲んだことがあるかもしれません。この名称は商品の名称ですが、成分の名称は「ロキソプロフェンナトリウム水和物」です。 さらに、ロキソプロフェンには錠剤以外にもテープやパップといった剤形の違いがあります。 そして最後に、ロキソプロフェンを作っている会社は複数あるので、末尾に「トーワ」や「ファイザー」などの組み合わせが存在します。ロキ

        医薬品検索にベクトル検索を導入したら、デフォで検索ニーズをほぼ満たせそうだった話
      • RAG の精度を向上させる Advanced RAG on AWS の道標 | Amazon Web Services

        Amazon Web Services ブログ RAG の精度を向上させる Advanced RAG on AWS の道標 生成 AI の進化と共に、大規模言語モデル (LLM) を活用したアプリケーション開発が急速に広がっています。その中で、検索拡張生成 (Retrieval-Augmented Generation; RAG) は、LLM に対して最新の情報や特定のドメイン知識を組み込むための重要な技術として注目を集めています。 RAG は、その名の通り、外部知識ベースから関連情報を検索し、それを LLM の入力に組み込むことで、より正確で最新の情報に基づいた回答を生成する手法です。この手法には以下のような重要な利点があります。 最新情報の反映: LLM の学習データの制限を超えて、最新の情報を回答に反映させることができる。 ドメイン特化: 特定の分野や組織固有の情報を容易に組み込むこ

          RAG の精度を向上させる Advanced RAG on AWS の道標 | Amazon Web Services
        • RAGの処理で、リランクとベクトル検索でできることの違いを検証/解説してみる - Taste of Tech Topics

          こんにちは。テニスしすぎて日焼けがすごいSsk1029Takashiです。 私は普段、生成AIを活用したRAGソリューションの開発をしているのですが、RAGでは特に検索部分の調整が重要になります。 今回はその検索の中で出てくるリランクに焦点を当てて、ベクトル検索と比較してどのような特徴があるのかというところを、検証を交えて解説していきます。 概要 RAGの検索部分では、よくベクトル検索が利用されます。 理由としては、入力が基本的に質問形式になりキーワードで入力されることが多い通常の検索よりも適している、などいくつか考えられます。 ただし、実際にRAGを試してみるとわかりますが、RAGシステムではベクトル検索だけでは検索精度の面で苦労することも多いです。 そこで解決方法の一つとして考えられているのが、ベクトル検索とリランクとの併用になります。 今回は、なぜRAGはベクトル検索だけだと苦労が多

            RAGの処理で、リランクとベクトル検索でできることの違いを検証/解説してみる - Taste of Tech Topics
          • Cursor の無料版を使い続ける場合の設定 - Qiita

            Cursor の Pro 版でサポートされる AI 機能は非常に強力であり、無料版と比較して多くのメリットがあります。しかし、個人開発者や学生など予算に限りがある人にとっては、Pro 版の利用は難しい場合があります。 本記事では、Cursor の無料版で Gemini や GitHub Copilot を設定することで、Pro の使用感に近付ける方法を紹介します。 Gemini は無料枠があります。 GitHub Copilot は基本的に有料ですが、学生・教職員や OSS 開発者への免除があるため、無料で利用できる場合があります。 概要 単純に VS Code を Cursor の無料版に置き換えた場合、差分としてよく使う機能は以下の通りです。 AI Chat でのメンション:Codebase (RAG)、Git、ファイル指定 RAG を別途構築する手間がないのは便利です。 Git 機能

              Cursor の無料版を使い続ける場合の設定 - Qiita
            • Difyで作成した生成AIチャットをWebアプリに組み込む - Taste of Tech Topics

              はじめに 9月に入って、少し涼しくなったと思ったら、また、35℃などになる暑い日が続きますね。 データ分析エンジニアとして毎日充実した時間を過ごしている木介です。 今回はGUIで簡単に生成AIアプリを作成できるDifyで作成したAIアプリを簡単にWebアプリに組込む方法について紹介します docs.dify.ai はじめに Difyとは? 概要 今回作成するアプリ Difyを埋め込んだWebアプリの構築方法 利用するツール 構築方法 1. DifyによるAIアプリの構築 2. StreamlitによるDifyを埋め込んだWebアプリの作成 作成したアプリの実行 まとめ Difyとは? 概要 Difyは、生成AIを活用したアプリケーションをGUIで簡単に開発することができるアプリです。 以下のような形で簡単に生成AIを使ったワークフローを作成できます。 詳細な解説については以下の記事を是非参

                Difyで作成した生成AIチャットをWebアプリに組み込む - Taste of Tech Topics
              • RAGで文書検索の精度を上げるには、複数の埋め込みモデルを使う

                株式会社ナレッジセンスは、生成AIやRAGを使ったプロダクトを、エンタープライズ向けに開発提供しているスタートアップです。本記事では、RAGの性能を高めるための「Router Retriever」という手法について、ざっくり理解します。 この記事は何 RAGを実装するエンジニアが困りがちなのは、大量の文書から「いかに、ソースとなる正しい文書を検索してくるか」という検索部分です。この記事では、そういった文書検索の精度を上げるための手法である「RouterRetriever」の論文[1]について、日本語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 (注:前提として、今回の手法はちょっとディープです。これまでRAGをやってきたエンジニアで、「RAGの文書検索って難しい」と感じたことがある方にだけ刺さる内容

                  RAGで文書検索の精度を上げるには、複数の埋め込みモデルを使う
                • GitHub Models を使って 20 種類以上の LLM の日本語性能を測定してみた - NTT Communications Engineers' Blog

                  本記事では、今年8月にパブリックベータ版として GitHub に搭載された新機能 GitHub Models について、概要や利用法を簡単にご説明します。さらに、実際に GitHub Models を活用して、多数の LLM の日本語性能を横断的に測定していく例を紹介していきます。 目次 目次 はじめに 三行で GitHub Models を説明すると... GitHub Models の使い方 Waitlist への登録 モデル一覧 ブラウザ上で試す API経由で試す GitHub Models を利用する上での注意点 API レート制限の制約が強い Azure AI Content Safety が全ての LLM に適用されている GitHub Models を使って LLM の日本語性能を横断的に測定する 実験 1. GPT-4o による自動評価 2. 出力が日本語になっているかどう

                    GitHub Models を使って 20 種類以上の LLM の日本語性能を測定してみた - NTT Communications Engineers' Blog
                  • ついにBedrockとSlackがノーコードで連携できるようになったよ! - Qiita

                    今日はこちらのビッグニュースが飛び込んできました! AWS ChatbotがBedrock agentsに対応したので、SlackやTeamsとBedrockが連携できるようになりました🎉🎉🎉 早速やってみました。なんと ノーコード です!! 最速を狙いましたがすでに検証された方がいました!早い! 手順 Bedrock agentsを作成する マネジメントコンソールでBedrockの管理画面を開きます 左メニューの「エージェント」をクリックします 「エージェントを作成」をクリックします 「Name」を入力して「作成」をクリックします エージェントビルダーの画面に遷移します モデルを選択で好きなモデルを選択します。(私はClaude 3 Haikuを選択しました) 「エージェント向けの指示」にプロンプトを入力します。(私はこちらのClaude 3 Haikuのシステムプロンプトを入力し

                      ついにBedrockとSlackがノーコードで連携できるようになったよ! - Qiita
                    • Google、AIの“幻覚”に対処する「DataGemma」をオープンモデルでリリース

                      米Googleは9月13日(現地時間)、LLMが不正確な回答を出してしまういわゆる幻覚(ハルシネーション)を軽減するためのAIモデル「DataGemma」を発表した。オープンモデルとしてHugging Faceで公開した。 Gemmaは、Googleが今年2月にオープンモデルとして発表した「Gemini」の軽量版LLM。DataGemmaは、このGemmaのオープンモデルファミリーをベースに、Googleが構築した「Data Commons」の信頼できるデータを使って回答する。 Data Commonsは、数十万の統計変数にわたる2400億を超えるデータポイントを含む、公開されているナレッジグラフだ。データは、国連(UN)、世界保健機関(WHO)、疾病予防管理センター(CDC)、国勢調査局などの“信頼できる”組織から取得されたもの。 DataGemmaは、Data Commonsの信頼でき

                        Google、AIの“幻覚”に対処する「DataGemma」をオープンモデルでリリース
                      • RIG is 何?RAG の妹?DataGemma の論文を翻訳しながら RIG を読み解く〜①まずは翻訳〜 - Qiita

                        RIG is 何?RAG の妹?DataGemma の論文を翻訳しながら RIG を読み解く〜①まずは翻訳〜RigragDataGemma DataGemma がリリースされました。外部情報を使ってハルシネーションを抑止する手法として RAG が有名ですが、Datagemma では RAG だけではなく RIG という手法も提案・利用していました。 RIG というのがよくわからなかったので論文を読みました。そしてそのときの翻訳を残します。 RIG が一体なんなのかはそのうち… 論文の原本はこちら 注) RIG の Retrieval Interleaved Generation は勝手に検索交互生成としました。 以下原文を LLM の助けを借りながら翻訳したもの 要旨 大規模言語モデル(LLM)は、数値や統計データ、あるいは時事的な事実に関連するクエリに応答する際、事実に反する情報を生成し

                          RIG is 何?RAG の妹?DataGemma の論文を翻訳しながら RIG を読み解く〜①まずは翻訳〜 - Qiita
                        • なぜAIに“日本語”を学習させるのか? 35種類のLLMで実験し分析 東工大などが研究報告

                          このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高いAI分野の科学論文を山下氏がピックアップし、解説する。 X: @shiropen2 9月3日に開催の第261回自然言語処理研究発表会において、東京工業大学と産業技術総合研究所に所属する研究者らが発表した「LLMに日本語テキストを学習させる意義」は、大規模言語モデル(LLM)に日本語を学習する効果について実験結果を基に評価した研究報告である。 この研究では、35種類のLLMに対して日本語と英語の19種類のタスクを用いて評価を実施し、その結果を詳細に分析。評価に用いたLLMは、学習データや構築手法によって大きく4つのカテゴリーに分類される。 「英語フルスクラッチ」は英語中心のデータで学習されたモデル(Llama 3など) 「日本

                            なぜAIに“日本語”を学習させるのか? 35種類のLLMで実験し分析 東工大などが研究報告
                          • GitHub - dleemiller/WordLlama: Things you can do with the token embeddings of an LLM

                            from wordllama import WordLlama # Load the default WordLlama model wl = WordLlama.load() # Calculate similarity between two sentences similarity_score = wl.similarity("i went to the car", "i went to the pawn shop") print(similarity_score) # Output: 0.06641249096796882 # Rank documents based on their similarity to a query query = "i went to the car" candidates = ["i went to the park", "i went to th

                              GitHub - dleemiller/WordLlama: Things you can do with the token embeddings of an LLM
                            • 【GraphRAG プロジェクトを立ち上げます】ナレッジグラフとLLMで「発想力を持つAI」の実現へ|Stockmark

                              こんにちは。ストックマークのリサーチャーの広田です。今日は私が新しく立ち上げた GraphRAG プロジェクトの仲間を募集するために、GraphRAG プロジェクトについて紹介したいと思います。 広田航 Researcher 大阪大学大学院情報科学研究科を卒業後、米国に渡り Megagon Labs で Conversational AI や entity matching の研究を行う。その後帰国しストックマークに参画。現在はナレッジグラフ構築や LLM を活用した情報抽出の研究を行う。 まず GraphRAG プロジェクトの背景を紹介したいと思います。 ストックマークは「価値創造の仕組みを再発明し人類を前進させる」というミッションを掲げ、「AIと人による新しい価値創造プロセスを発明する」を目指して Research Unit を組成しています。情報の量が急激に増えている現代において、情

                                【GraphRAG プロジェクトを立ち上げます】ナレッジグラフとLLMで「発想力を持つAI」の実現へ|Stockmark
                              • “学習データも全てオープン”なLLM、NIIが公開 GPT-3級モデルのプレビュー版

                                国立情報学研究所(NII)は9月17日、パラメータ数約1720億の大規模言語モデル(LLM)のプレビュー版「LLM-jp-3 172B beta1」を公開した。NIIが開発するLLMは、データをフルスクラッチで学習しており、AIモデルの他に学習データもオープンになっているのが特徴。プレビュー版モデルは、学習データの約3分の1までを学習した段階のものになる。 今回公開したLLMのパラメータ数は約1720億で、米OpenAIのLLM「GPT-3」と同程度の規模。ベースモデルは米MetaのLLM「LlaMA-2」を使った。 学習用データには、約2.1兆トークン(おおよそ単語数の意)のデータを用意。そのうち日本語は約5920億トークンで「WebアーカイブCommon Crawl(CC)全量から抽出・フィルタリングした日本語テキスト」「国立国会図書館インターネット資料収集保存事業(WARP)で収集さ

                                  “学習データも全てオープン”なLLM、NIIが公開 GPT-3級モデルのプレビュー版
                                • 大規模言語モデルの研究動向の調査:時系列データ分析とData-centric AIの視点から

                                  カテゴリー DX (2) 一般 (59) 研究会 (6) 働き方 (4) 技術 (353) Edge AI (2) Edge Computing (13) Erlang (1) FIWARE (2) Fog Computing (10) Infiniband (31) Internet of Things (32) Key Value Store (17) Linux (3) Linux KVM (10) Machine Learning (6) RealTime Web (14) SRE (3) Webサービス (42) インフラ (8) コンテナ (4) ストレージ (93) データセンター (7) データベース (47) データ流通 (6) テレプレゼンス (2) ネットワーク (215) 仮想化 (111) 災害コミュニケーション (26) 空間情報 (30) 量子コンピューティン

                                    大規模言語モデルの研究動向の調査:時系列データ分析とData-centric AIの視点から
                                  • Try out OpenAI o1 in GitHub Copilot and Models

                                    Starting today, we’re opening a preview to give developers an opportunity to test OpenAI o1-preview and o1-mini, hosted on Azure, in both GitHub Copilot and Models. Sign up to get access to use OpenAI o1 in GitHub Copilot Chat with Visual Studio Code and in the playground with GitHub Models. OpenAI o1 is a new series of AI models equipped with advanced reasoning capabilities, trained to think thro

                                      Try out OpenAI o1 in GitHub Copilot and Models
                                    • NIIが「学習データ含め全てオープンにした」LLMを公開 学習用日本語データを約5920億トークン用意、コードは何億トークン?

                                      NIIが「学習データ含め全てオープンにした」LLMを公開 学習用日本語データを約5920億トークン用意、コードは何億トークン?:「オープンかつ日本語に強いLLM」を目指し、全部で約2.1兆トークン学習させる NIIは、約1720億パラメーターの大規模言語モデル「LLM-jp-3 172B beta1」のプレビュー版を公開したと発表した。フルスクラッチ学習で作成され、学習データを含めて全てオープンになっている。

                                        NIIが「学習データ含め全てオープンにした」LLMを公開 学習用日本語データを約5920億トークン用意、コードは何億トークン?
                                      • OpenAI「思考の連鎖」が導く汎用AIへの道 編集委員 吉川和輝 - 日本経済新聞

                                        米新興企業オープンAIが12日に新たな人工知能(AI)「o1(オーワン)」を発表したことで、人間のように広範な知的活動を遂行できる汎用人工知能(AGI)への道筋が見えてきた。AGIは早ければ2027年までに誕生するとの見方があり、その先には人間の能力を大幅に上回る人工超知能(ASI)の登場が控える。22年11月のChat(チャット)GPT登場に続くAIの飛躍期が近づいてきた。苦手の数学を克服

                                          OpenAI「思考の連鎖」が導く汎用AIへの道 編集委員 吉川和輝 - 日本経済新聞
                                        • LangChain v0.3 クイックスタートガイド - Python版|npaka

                                          Python版の「LangChain」のクイックスタートガイドをまとめました。 ・langchain 0.3.0 1. LangChain「LangChain」は、「大規模言語モデル」 (LLM : Large language models) と連携するアプリの開発を支援するライブラリです。 「LLM」という革新的テクノロジーによって、開発者は今まで不可能だったことが可能になりました。しかし、「LLM」を単独で使用するだけでは、真に強力なアプリケーションを作成するのに不十分です。真の力は、それを他の 計算 や 知識 と組み合わせた時にもたらされます。「LangChain」は、そのようなアプリケーションの開発をサポートします。 3. LangChain のモジュール「LangChain」は、言語モデル アプリケーションの構築に使用できる多くのモジュールを提供します。モジュールを組み合わせて

                                            LangChain v0.3 クイックスタートガイド - Python版|npaka
                                          • Google、2400億の検証可能な統計データを接続させたオープンLLM「DataGemma」を発表

                                            Googleは2024年9月12日(米国時間)、大規模言語モデル(LLM)のハルシネーション(幻覚)の課題に対処するため、同社の「Data Commons」に接続するよう設計された初のオープンLLM「DataGemma」を発表した。 ハルシネーションは、LLMが不正確な情報に関して自信を持って提示する現象を指す。これは生成AI(人工知能)における重要な課題となっている。Googleは、検証可能な統計データでグラウンディング(接続)され、事実に関する複雑な推論が可能な、より信頼できるLLMを構築する研究を推進している。 ハルシネーション軽減のために、2400億の検証可能な統計データをどう使うのか 関連記事 生成AIのグラウンディング(Grounding)とは? 用語「グラウンディング」について説明。特定の知識や情報源(ナレッジベースなど)に基づいて言語モデルの生成内容を裏付けるプロセスのこと

                                              Google、2400億の検証可能な統計データを接続させたオープンLLM「DataGemma」を発表
                                            • Introduction | ell documentation

                                              ell is a lightweight prompt engineering library treating prompts as functions. After years of building and using language models at OpenAI and in the startup ecosystem, ell was designed from the following principles: Prompts are programs, not strings¶ import ell @ell.simple(model="gpt-4o-mini") def hello(world: str): """You are a helpful assistant""" # System prompt name = world.capitalize() retur

                                                Introduction | ell documentation
                                              • リーガルテックにおける検索・推薦技術

                                                CoffeeScript is Beautiful & I Never Want to Write Plain JavaScript Again

                                                  リーガルテックにおける検索・推薦技術
                                                1