並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 73 件 / 73件

新着順 人気順

検索エンジンの検索結果41 - 73 件 / 73件

  • GraphRAGの簡易検証 ~Azure Document Intelligence, Neo4jを用いて~ - Qiita

    GraphRAGの簡易検証 ~Azure Document Intelligence, Neo4jを用いて~rag事前学習生成AILLMDocumentIntelligence はじめに 本記事の背景 Retrieval-Augmented Generation(RAG)は、クエリに基づいた情報検索を行い、その結果を基に回答を生成する技術です。これは大規模言語モデル(LLM)の活用法の一つであり、新しい知識や企業文書などに対しても効果的に利用できます。しかし、RAGにはいくつかの課題があり、特に情報の関連付けや意味的理解の不足が精度の低下につながることがあります。 通常のRAGは、主にベクトル類似性を利用して情報を検索します。これは、情報断片の表面的な類似性を評価するものであり、深く複雑な関連性を捉えることが難しいです。また、ベクトル化された情報は独立したエンティティとして扱われるため、文

      GraphRAGの簡易検証 ~Azure Document Intelligence, Neo4jを用いて~ - Qiita
    • 書店在庫情報プロジェクト

      読者が読みたいと思った本に出会ったとき、その本が読者の住んでいる地域の書店での在庫を知ることができれば、読者はその書店に足を運んでくれると私たちは考えます。現状では、たとえば新聞広告やテレビで紹介された本、SNSや動画共有サイトで紹介された「お目当ての本」が地域の書店にあることを調べるには実際にはとても煩わしく、電話で店舗ごとに問い合わせるか、ネットでも限られた書店のみの在庫情報しかありません。 本を検索して近くの書店の在庫がわかれば、ネット注文よりも早く手に入れることができることを知り、それまで知らなかった書店へも足を運ぶことになるでしょう。欲しい本が書店にあることがわかれば、書店読書好きの読者だけでなく、読書から離れている人にとっても書店へ足を運ぶきっかけにもなると考えます。 そこで、私たち業界団体が連携してできるだけ読者が簡便に書店の在庫を調べられるツールを提供側の負担を軽減する方法

        書店在庫情報プロジェクト
      • グーグルが新しい検索機能を日本で発表。「AIで1秒で雨量予測」と「ハッシュタグ検索」

        グーグルの研究部門・Google Researchは降水予測のためのAIモデル「MetNet」を2020年に発表している。今回、日本の天気予測に使われるのは、2023年11月に発表された改良版「MetNet-3」になる。 グーグルは日本ではウェザーニューズとパートナーシップを結んでいるが、MetNet-3を基にウェザーニューズが蓄積したデータを用いて日本向けにカスタムされた雨量予測モデルを開発した。 このカスタムモデルにより、7月開始するGoogleナウキャストでは3km四方の解像度での最大12時間先まで・5分ごとの雨量および雪量予測を実現している。 Googleナウキャストは、Androidのホーム画面等からアクセスできる天気機能や、Google検索(「東京 天気」など)の結果画面から無料で利用できるようになる。

          グーグルが新しい検索機能を日本で発表。「AIで1秒で雨量予測」と「ハッシュタグ検索」
        • ElasticsearchによるLearning To Rank(LTR)入門 - Qiita

          はじめに Elasticsearchではv8.12からLearning To Rankという機能が実装されました。これまでにもコミュニティープラグインでは同様のことが実現できていましたが、今回Elasticが公式にサポートしましたので概要について紹介したいと思います。 検索の良し悪しは主に以下の観点で評価できます。 適合率 / Precision : どれだけノイズが少ないか 再現率 / Recall : どれだけもれなく検索できているか Learning To Rank(LTR)はこのうち適合率 / Precisionを、事前に用意したデータを学習することによって向上させるための仕組みです。 この機能はElasticsearchの外部で機械学習によって作成したモデルを使って実現します。流れとしてはData Frame Analyticsやベクトル検索で実現しているのと同様、Pythonで

            ElasticsearchによるLearning To Rank(LTR)入門 - Qiita
          • ニコニコ動画(Re:仮)検索

            ガチャを楽しみたい方はニコニコ動画(Re:仮)公式へどうぞ!2009年の動画に対応しました!ニコニコ動画(Re:仮)で見られる動画が検索できるサイトです。 いちニコニコファンとして勝手に作ったサイトで、情報の正確性や網羅性は担保しません。 各コンテンツの権利はニコニコ及び動画投稿者に帰属します。 予告なくサービスを終了する可能性があります。

            • https://www.medee.jp/column/implant/implant-halitosis/

              • 【研究のススメかた】避けるべき論文の見分け方|Dr. MM

                1. 記事の狙いと想定読者層研究を進めるうえでのTIPSをまとめていくシリーズです。大学や大学院等における研究活動に関して、お読みいただいている皆さまになにかしら示唆をご提供できればという思いで書いています。 読者層としては、大学院等の研究機関で研究活動に取り組む方々を想定しています。今回テーマとして取り上げるのは、「避けるべき論文」、すなわちハゲタカジャーナルに掲載されている論文の見分け方。 2. 「避けるべき論文」とは?なぜ避ける必要があるのか?このテーマで記事を書こうと思った背景がいくつかありまして、最大の要因はいわゆるハゲタカジャーナル(英語だと、Predatory Journal。ハゲタカだからってVulture journalとは言いません)の氾濫猖獗。以前、別記事「先行研究レビューの実作業のやりかた」でも触れましたが、世の中には一見学術誌の体裁をとりつつ、じつは粗悪な著作物で

                  【研究のススメかた】避けるべき論文の見分け方|Dr. MM
                • 脱毛サロン・クリニックのSEO対策!キーワード選定とサイト作りのコツ -webma-

                  「脱毛サロンでSEO対策ってどうやってやるの?」 「他のクリニックと差別化をする方法が知りたい」 このような悩みを抱えていませんか? 脱毛サロンやクリニックは、地域内で競合が多く、どのようにして検索エンジンで露出を増やすのかが課題となります。 逆にいえば、SEOによって上位を獲得できれば、より多くの集客に繋がることは間違いありません。 そこでこの記事では、脱毛サロンやクリニックが効果的にSEOをおこなう方法について、以下の内容に沿って解説します。 この記事のトピック 脱毛サロン・クリニックがSEO対策をすべき3つの理由 脱毛サロン・クリニックのSEO対策で効果的なキーワード選定の方法 SEOに強い脱毛サイトを作るポイント6選 コンテンツ対策や被リンク獲得について この記事を読めば、脱毛サロンやクリニックのSEOの仕方が明確になり、すぐにでもSEOに取り組めます。 ぜひ最後まで読み、参考にし

                    脱毛サロン・クリニックのSEO対策!キーワード選定とサイト作りのコツ -webma-
                  • 【歯科医院向け】LP制作で失敗しないために知っておきたいポイント -webma-

                    「新しくLPを作って患者さんを増やしたい」とお考えではないでしょうか? LPとは、訪問者に特定のアクションを促すための、1枚完結型のウェブページです。 広告の遷移先をホームページから専用のLPに変更するだけで、成果が伸びるケースも少なくありません。 とはいえ、いきなりLPを制作しても「スムーズに制作が進まない」「思うような成果が出ない」など、うまくいかない可能性が高いです。 そこでこの記事では、歯科医院がLP制作で失敗しないために事前に知っておくべきポイントをまとめました。 効果的なLPを作りたい歯科医院の先生は、ぜひ参考にしてください。 エクスコアのLP制作実績・サービス内容は、下記の資料にてご確認いただけます。 Webサイト&LP制作/改修|サービス資料 -webma- 歯科医院のLP(ランディングページ)とは LP(エルピー)とは「ランディングページ」の略語で、問い合わせや予約など、

                      【歯科医院向け】LP制作で失敗しないために知っておきたいポイント -webma-
                    • Googleハッシュタグ検索が日本独自の機能として正式リリース

                      [レベル: 初級] ハッシュタグ (#) で検索する機能が日本の Google で正式に公開されました。 ハッシュタグ検索は日本独自の機能 ハッシュタグによる検索は数か月前からテストされていました。 1 か月ほど前には、通常のウェブ検索にもハッシュタグ専用のブロックが差し込まれるようになり、公式発表がないまま正式公開したのではないかとも思われていました。 ハッシュタグでの検索機能を Google は次のようにリリース記事で紹介しています。 インターネットを利用する目的として、日本では諸外国と比べて、最新のトレンドや自分の興味や関心のあるトピックを深掘りして知りたいというニーズがより強いことが最近の調査でわかりました。そして、流行を調べたり、共通の関心をもつ人とつながる手段として、最近は「ハッシュタグ」がよく使われています。日本語は、単語の間にスペースが不要なため、より長い文章など表現力豊か

                        Googleハッシュタグ検索が日本独自の機能として正式リリース
                      • Google 検索の連続ページスクロールが廃止。まずはデスクトップユーザーから | HelenTech

                        当サイトは Google Adsense、Amazon アソシエイト等 アフィリエイト広告を利用して収益を得ています. Google は Google 検索における検索結果の連続ページスクロールを廃止し、従来のページ区切りのスタイルに戻すことが明らかになりました。 連続スクロールは2021年にモバイル検索から導入され、2022年にはデスクトップの検索でも導入されています。これはユーザーが検索結果のページをスクロールしていくと、Google 検索が自動的に多くの結果を読み込み続けるという機能です。しかし、ユーザー満足度が大きく向上しなかったことにより、従来のページネーションによる検索結果ページに戻すことを決定したようです。 これは Google が Search Engine Land に伝えたもので、この変更は2024年6月25日からデスクトップ検索ですでに提供されているとしており、モバイ

                        • 近似近傍探索のチューニングで気をつけること

                          本記事ではFaissやScaNNといったライブラリに実装されているIVF-PQ系の近似近傍探索手法のパラメータチューニングの際に気をつける点を紹介します。pythonのプログラム上で動かすことを想定していて、vertex AI vector searchのようなAPIで行うものは対象外です。ただ、OpenSearchではfaissを近似近傍探索として選ぶことができるため、チューニングの参考になるかもしれません。 はじめに: ANN-Benchmarksの罠 ANNの性能とパフォーマンスの参考になるサイトとして、ANN-Benchmarksというサイトがあります。このサイトでは各近似近傍探索のパフォーマンスが様々なベンチマークにより比較されており、近年ではFaissに実装されているFastScanやTensorFlow recommendersから使えるScaNNといった、高速化されたIVF

                            近似近傍探索のチューニングで気をつけること
                          • 【支援事例】「MEOで上がれば問い合わせは増える」4ヶ月で効果を実感。口コミが来院の決め手に -webma-

                            Lily Smile Dental Clinic(リリースマイルデンタルクリニック)は、東京池袋の歯科医院です。 「患者さま一人ひとりに十分な時間を使って最善の治療を届けたい」という院長先生の強い想いから、自由診療をメインにクオリティ重視の診療を提供しています。 同クリニックでは、2023年の開院直後からエクスコアとMEOへの取り組みを開始。 現在までに「地域名+歯医者」での上位表示や予約数の増加に成功しています。 今回は院長の相原弘一朗先生に、エクスコアに支援をご依頼いただいた理由やこれまでの成果について、お話を伺いました。 抱えていた課題 看板や口コミだけでは集患が難しいと考えていた MEOやSEOで上位を獲得し、患者さんが自然と集まってくれるような仕組みを作りたかった 提供サービス MEOサービス(SEOも現在準備中) 取り組み時期 2023年6月〜現在 導入後の成果 対策開始4ヶ月

                              【支援事例】「MEOで上がれば問い合わせは増える」4ヶ月で効果を実感。口コミが来院の決め手に -webma-
                            • 複雑なクエリを生成して精度をあげるRAGの手法 Middleware for LLMs

                              導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、LLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 本記事では、大規模な従来のデータベース(SQLなど)を使ったRAGの手法である「Middleware for LLMs」について簡潔に解説していきます。 以前にも、データベースとLLMを利用して、適切なクエリを発行するための手順を解説しています。 気になる方は、そちらも参照してみてください。 より詳しい手法や、実際に使用したプロンプトのテンプレートは以下を参照してください。 サマリー Middleware for LLMsは従来のSQLデータベースや、知識グラフデータベースを対象に、適切な検索を行い回答精度のの向上をはかっています。従来のデータベースを利用したRAGと比較して、LLMの指示の出しやすい形に

                                複雑なクエリを生成して精度をあげるRAGの手法 Middleware for LLMs
                              • Code Finder

                                Code Finder! A search engine for everything on GitHub!

                                  Code Finder
                                • 任意のキーワードを元にAIがGithubから検索してくれるコード検索エンジン・「Code Finder」

                                  Code Finder Code Finderは任意のキーワードを元にAIがGithubから検索してくれるコード検索エンジンです。特別な機能や便利な設定等は用意されておらず、単純に探したいOSSやコードスニペットをを探すコード検索エンジンとなっています。 OpenAIの GPT-3.5-Turboモデルを微調整して、ユーザーの入力したリクエストをGithubの検索クエリに変換する事で実現しているそうです。 システムのコアには、高度なアルゴリズムパイプラインがあり、検索クエリを受信した後に、アルゴリズムはGitHub Search API にリクエストを行い、関連するすべてのリポジトリをJSONで取得、このJSONからデータを分析し、関連性に基づいて検索結果をランク付けし、結果として反映される、という仕組みだそうです。 日本語で検索してもそれなりに精度が高かったですが、英語だとより確実みたい

                                    任意のキーワードを元にAIがGithubから検索してくれるコード検索エンジン・「Code Finder」
                                  • ナレッジグラフでスターウォーズファンに映画を推薦する|kiha

                                    人間の持つ知識を形式的に表現する、知識表現の研究は古くからなされてきており、例えば一つの形としてWebシステムではよくつかわれるリレーショナルモデルなどがある。近年よく着目されているのがナレッジグラフであり、先端的な研究を超えて、実産業での活用事例(例えばGoogleのナレッジグラフサーチ)も多くみられるようになった。 本記事では、noteのレコメンドシステムも手がけている筆者がWikidataのエンドポイントを利用して、ナレッジグラフを探索し、スターウォーズファンにおすすめできそうな映画をリストアップしてみる。最終的にこんな感じのリストが得られる。スターウォーズファンのみなさまには、興味が惹かれるタイトルがあっただろうか? ナイト ミュージアム2 インディ・ジョーンズ/クリスタル・スカルの王国 地獄の黙示録 チャーリーズ・エンジェルフルスロットル ブレードランナー 2049 ジャッジ・ド

                                      ナレッジグラフでスターウォーズファンに映画を推薦する|kiha
                                    • 時系列基盤モデルによる株価データ(多変量)の類似度算出と検索|はち

                                      1. はじめに今回は時系列基盤モデルを使って、多変量の時系列データのEmbeddingを作成し、そこから時系列データ同士の類似度を算出するというのを試していきたいと思います。 元々、時系列データの類似度を算出する方法としては以下の2つがあったと思います。(時系列を専門にやってきたわけではないので間違っていたらご指摘お願いします。) 動的時間伸縮法(DTW: Dynamic Time Warping)を利用して、単変量毎の類似度を算出。各次元の類似度を統合する。 LSTMなどのNNモデルを利用 しかし、前者は各次元間の関係性を考慮できていない、後者は学習が必要、という点で使いづらさがあったと思います。 時系列基盤モデルによって、学習なしに多変量時系列データのEmbedding化が可能になり、(言語)Embeddingモデルを使った時のように多変量時系列データの類似度が算出できるようになりまし

                                        時系列基盤モデルによる株価データ(多変量)の類似度算出と検索|はち
                                      • Vertex AI Vector Search でレコメンド機能を作って本番サービスに投入した話 | TrustHub テックブログ

                                        トラストハブ AI チームの中村です。 今年の1月頃に、弊社(トラストハブ)が提供する「Clove オリパ」というサービスで商品(オリパ)のレコメンド機能[1]を実装しました。いわゆる「この商品を買った人はこんな商品も買っています」機能で、商品購入後に類似の商品をユーザーに推薦することで、ユーザーの購買意欲を促進させるのが目的です。 レコメンド機能の裏側で動いているのがベクトル検索です。Clove オリパでは、ユーザーの過去の購買履歴をもとに商品(オリパ)をベクトル空間に埋め込み、そのベクトルの近さによって商品(オリパ)の類似度を測っています。 Clove オリパの類似商品レコメンド機能 この記事では、ベクトル検索の基本概念からはじめ、Google Cloud Platform が提供するベクトル検索サービス Vertex AI Vector Search について、その特徴などを詳しく解

                                          Vertex AI Vector Search でレコメンド機能を作って本番サービスに投入した話 | TrustHub テックブログ
                                        • [vscode] 非基本 ASCII Unicode 文字が含まれています | Tech控え帳

                                          特定のファイルを Visual Studio Code で開いたときに「このドキュメントには、数多くの非基本 ASCII Unicode 文字が含まれています」というサジェッションが表示される。 対象バージョン : Visual Studio Code 1.68 以降 説明 U+0020 から U+007Eの間の文字、Tab、改行コード、行頭復帰のみが『基本 ASCII文字』と見なされます。 デフォルト設定では『非信頼(Untrasted)ワークスペース』/『制限モード』の非基本ASCII文字の強調表示が有効になっています。 いわゆる全角文字と半角カナがすべて強調表示の対象になります。 強調表示の対象(非基本ASCII文字)の文字が多すぎる(文字数が上限を超えた)ため強調表示を中止する旨の警告です。 設定 : Non Basic ASCII true : 強調表示有効 false : 強調

                                          • Vector Search・Vectorインデックスの作成と、ドキュメント内の類似検索 - APC 技術ブログ

                                            はじめに このブログで使用したノートブック 前提条件 ノートブックの概要 検証結果 類似検索 おわりに はじめに GLB事業部Lakehouse部の佐藤です。 この記事では、DatabricksでのVectorインデックスの作り方と、Vectorインデックスを使っての類似検索についてご紹介します。 Vector Search(ベクトル検索)は、データポイントをベクトルとして表現し、そのベクトル間の類似度に基づいて検索を行う手法です。 Vectorインデックスは、大量のベクトルデータを効率的に検索するためのデータ構造です。通常のデータベースインデックスと同様に、検索のスピードを向上させるために使用されますが、高次元ベクトルデータに特化しています。 ベクトル検索とインデックスの組み合わせにより、膨大なデータセットの中から類似するデータを高速かつ効率的に見つけることができます。 Databric

                                              Vector Search・Vectorインデックスの作成と、ドキュメント内の類似検索 - APC 技術ブログ
                                            • Rで犬種レコメンダーを作る(潜在意味解析) - Qiita

                                              この例では、語句-文書行列の要素を単純に語句の出現頻度としましたが、この出現頻度に重み付けすることで、より検索の精度を上げることができます。各要素の値$D_{ij}$は、局所的重み$l_{ij}$、大域的重み$g_i$、文書正規化係数$n_j$より、以下のように計算されます。 $$D_{ij}=\frac{l_{ij}g_i}{n_{j}}$$ 一応各重みにはたくさんの計算方法がありますが、全部書いてるととんでもなく長くなっちゃうので、今回使ったものだけ紹介します。その他のものについては「情報検索アルゴリズム」がわかりやすいです(重み付けに限らず、潜在意味解析全体についてとてもわかりやすく書いてあります)。 語句-文書行列の行ベクトルを語句ベクトル$w_i$、列ベクトルを文書ベクトル$d_j$とします。また、文書$d_j$における語句$w_i$の出現頻度を語句頻度$f_{ij}$、文書の総

                                                Rで犬種レコメンダーを作る(潜在意味解析) - Qiita
                                              • ElasticsearchのNamed queries - 🤖

                                                やりたいこと 「ナイキ スニーカー」という検索キーワードがあった場合に、ナイキ→ブランド、スニーカー→商品カテゴリとElasticsearchで分類したい。(前提としてブランド名一覧のワード集合と商品カテゴリ一覧のワード集合はあるとする) Elasticsearchで分類するメリットはアナライザにより表記揺れを吸収できる点で、「NIKE」でも「ナイキ」でもブランドとしての「ナイキ」と分類できる。 単純に考えると以下のようなElasticsearchに以下のようなクエリを投げるイメージ。 GET _search { "query": { "bool": { "should": [ { "match": { "field.analyzed": { "query": "ナイキ" } } }, { "match": { "field.analyzed": { "query": "すにーかー" }

                                                  ElasticsearchのNamed queries - 🤖
                                                • BigQueryのベクトル検索で文書検索APIを作る

                                                  BigQueryでベクトル検索を利用できるようになっており学習用に使ってみました。 2024年6月6日現在はプレビュー版です。 構成図 ・Cloud Functions GCSにpdfを格納するとエンべディングデータを作成しBig Queryにインサートする。 ・Cloud Run 質問するとBigQueryにベクトル検索で文書検索し、検索情報を基に回答するAPI。 使用したデータ Wikipediaをpdf化したデータを使用しました。 リンゴ オレンジ Wikipediaの「ツール」→「pdf形式でダウンロード」からダウンロードしています。 ソースコード テーブルスキーマ ベクトル検索するVector Search関数はArray<float>型に対応しています。 Embeddingデータの作成 Cloud Functionの処理です。 pdfを読み込み pdfの文章をEmbedding

                                                    BigQueryのベクトル検索で文書検索APIを作る
                                                  • Neo4jでベクトル検索する方法 - Qiita

                                                    目次 0_前置き 1_ベクトルインデックスの作成 2_ノードの作成 3_ベクトル検索の実行 4_まとめ 0_前置き Neo4jでベクトル検索ができるようになりました。 Neo4jは言わずと知れたグラフデータベースです。ノードとリレーションシップにより、ナレッジグラフを作成することができます。 ChatGPTの登場で、ベクトルデータを効率的に保存するベクトルデータベースの利用が話題になりました。ベクトルデータベースを使えば、ベクトルの類似度等を用いて値を検索することができます。 そしてそんな中、2023年8月頃に、Neo4jもベクトル検索に対応しました。 Neo4jでベクトル検索を利用する Neo4jでは、ノードのプロパティにベクトルの値を格納することで、データベース内の特定のラベルに対して、ベクトル検索を行うことができます。 公式の記事に記されたコードでは、productsラベルを持つノー

                                                      Neo4jでベクトル検索する方法 - Qiita
                                                    • 【小ネタ】HTMLのみでサイト内検索を実現する - Qiita

                                                      .search-form { display: flex; align-items: center; gap: 0 10px; width: 400px; } .search-form input { width: 100%; height: 34px; padding: 1px 5px 1px 8px; border: 1px solid #999999; box-sizing: border-box; color: #000; outline: none; } .search-form button { display: flex; justify-content: center; align-items: center; width: 30%; max-width: 140px; height: 34px; border: none; background-color: #4070f

                                                        【小ネタ】HTMLのみでサイト内検索を実現する - Qiita
                                                      • 協調フィルタリングを用いたPythonのラーメン推薦システム - Qiita

                                                        全体の流れ 推薦システムの概要 協調フィルタリングについて データの作成 使用した機械学習モデルをざっくり説明 機械学習モデル間の出力速度と精度の比較 考察とまとめ 1. 推薦システムの概要 今回作成する推薦システムでは協調フィルタリングを用いて、事前に収集したデータ傾向からユーザーに最適なラーメンを推薦させる。 推薦プロセス 選択肢となる合計31枚のラーメン画像(s_0 ~ s_30)の中から好きなラーメン画像を5枚選んでもらう 学習済みの機械学習モデルに選択結果を入れる 機械学習モデルによって推薦候補のラーメン画像(y=0~3)の中から最適なラーメンが推薦される。 ラーメンの詳細 選択肢ラーメン画像(s_0 ~ s_30) 推薦候補のラーメン画像(y=0~3) 2. 協調フィルタリングについて 協調フィルタリングをざっくり説明すると以下の通りである。 協調フィルタリングとは、コミュニテ

                                                          協調フィルタリングを用いたPythonのラーメン推薦システム - Qiita
                                                        • 生成AIで検索市場が大変革、グーグル対抗の「Perplexity」が月40%も大躍進のワケ

                                                          生成AIの登場により、検索市場が大きく変わろうとしている。米国ではグーグル対抗のAI検索エンジン「Perplexity」の検索から流入するトラフィックは毎月40%増加していることが判明。日本でもソフトバンクと連携して本格参入することが明らかになった。これに対抗してグーグルも生成AIを活用した検索システム「Search Generative Experiences(SGE)」を利用者全員に早期に展開する見込みだ。生成AIによる検索が増えるとSEO(Search Engine Optimization)にどのような影響が出るのかは多くのデジタルマーケターが注目するところ。生成AIの登場で、検索市場に何が起きるのか。

                                                            生成AIで検索市場が大変革、グーグル対抗の「Perplexity」が月40%も大躍進のワケ
                                                          • DjangoのTrigramSimilarityで類似度検索 - Qiita

                                                            class Book(models.Model): title = models.CharField(max_length=200) [ "青い空の彼方に", "無限の夢", "夜明けの詩", "心の声を聞いて", "未来への扉", "時の流れに身を任せて", "星降る夜に", "静かな湖畔で", "遠い日の思い出", "秘密の庭", "風のささやき", "月明かりの下で", "終わりなき旅", "虹の彼方へ", "永遠の約束", "海辺の物語", "夢見る頃を過ぎても", "静寂の森で", "希望の光", "忘れられた時間", "草原の風", "季節の変わり目", "夢追い人", "深い森の中で", "流れる雲", "春の訪れ", "夕暮れのメロディ", "思い出のアルバム", "光と影の間で", "新しい世界へ", "儚い夢", "巡り会い", "雪の降る街", "夏の夜の夢", "孤

                                                              DjangoのTrigramSimilarityで類似度検索 - Qiita
                                                            • Elasticsearch Rails 7とnet-http-persistentを同時に使うときにはFaradayアダプターを指定する - Qiita

                                                              Railsアプリケーションのgemのバージョンを上げたときエラーが起きた Railsアプリケーションのgemのバージョンをbundle updateコマンドで上げていました。 bin/rails sコマンドでRailsアプリケーションを起動するときに次のようなエラーがでるようになりました。 ledsun@MSI:~/pubdictionaries►bin/rails s => Booting WEBrick => Rails 7.0.8 application starting in development http://localhost:3000 => Run `bin/rails server --help` for more startup options Exiting /home/ledsun/.rbenv/versions/3.2.1/lib/ruby/gems/3.2.0/

                                                                Elasticsearch Rails 7とnet-http-persistentを同時に使うときにはFaradayアダプターを指定する - Qiita
                                                              • RAG Fusion と CRAGの組み合わせを試してみた

                                                                質問ごとの数値を以下で計算します。 \frac{1}{\text{\text{定数k}(今回は60を設定) + 類似度順位}} 質問Aの数値 = 1 / (60 + 1) ≈ 0.01639 質問Bの数値 = 1 / (60 + 3) ≈ 0.01587 質問Cの数値 = 1 / (60 + 2) ≈ 0.01613 次にそれぞれの数値を足し合わせればスコアが計算できます。 0.01639 + 0.01587 + 0.01613 = 0.04839 上記のようにしてドキュメントごとにスコアを算出した後、上位のスコアを持つドキュメントをコンテキストとして使用します。 CRAG(Corrective Retrieval Augmented Generation) CRAGでは、通常のRAGに「ドキュメントに関連する内容が「ある」「ない」「曖昧」の評価機能」、「関連性がない場合、Web検索を実行

                                                                  RAG Fusion と CRAGの組み合わせを試してみた
                                                                • Search Engineering Tech Talk 2024 Springに参加した & ちょっとだけ運営お手伝い - ときどき起きる

                                                                  こんにちは、 pakioです この度5/31にLegalOnさんのオフィスで開催された Search Engineering Tech Talk 2024 Spring (検索技術勉強会)に参加、縁あって初めて勉強会の運営側に携わらせていただいたのでその記録です。 search-tech.connpass.com 検索技術勉強会自体は検索エンジニアとしてキャリアをスタートした2019年から参加しており、前回2023年12月には登壇もさせていただいた勉強会で、個人的に思い入れがある会でした。 前回登壇時の記事はこちら => hit-the-sack.hatenablog.com 前回の勉強会後に id:takuya-a さんとお話している中、(自分から猛プッシュした結果)運営にお誘いいただき、今回お手伝いをさせていただく運びとなりました。 各セッションの感想 RAG改善からみたクエリ・ドキュ

                                                                    Search Engineering Tech Talk 2024 Springに参加した & ちょっとだけ運営お手伝い - ときどき起きる
                                                                  • Perplexity.AIでリサーチするメリットとGoogle検索エンジンより優れているポイント

                                                                    こんにちは末広です。 あなたは「Perplexity.AI(パープレキシティ)」をご存知でしょうか? 巷ではリサーチ能力がGoogleの検索エンジンよりも優れていると言われています。 今回の記事は「Perplexity.AIでリサーチするメリットとGoogle検索エンジンより優れているポイント」についてです。 Perplexity.AIとは? Perplexity.AIは、高度な自然言語処理(NLP)技術を活用して、テキスト生成、要約、質問応答などを行うAIプラットフォームです。GoogleやMicrosoftなどの大手企業も注目しているこの技術は、ビジネスから教育、研究まで幅広い分野での応用が期待されています。 ちなみにPerplexity.AIは、アカウント作成やログイン不要で誰でも無料で使用することが可能です。(※pro版は有料) Perplexity.AIは、こちらの公式サイトから