2024年3月27日のブックマーク (3件)

  • RAGの新しい手法「CRAG」を3分で理解する

    記事では、最近よく聞くようになった「CRAG」についてざっくり理解します。軽めの記事です。 はじめまして。ナレッジセンスの門脇です。生成AIやRAGシステムを活用したサービスを開発しています。 この記事は何 この記事は、RAGの新手法として最近注目されている「Corrective Retrieval Augmented Generation (CRAG)」の論文[1]について、日語で簡単にまとめたものです。 「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 題 ざっくりサマリー RAGの性能を高めるための新しい手法です。Googleなどの研究者によって2024年2月に提案されました。CRAG(日語にすると「修正型検索拡張生成」)という手法を使うメリットは、ハルシネーション(幻覚)を減らせることです。CRAGが従来の「RAG」より

    RAGの新しい手法「CRAG」を3分で理解する
    macro1597
    macro1597 2024/03/27
  • 周期性のない図形「ペンローズ・タイル」が量子コンピュータのエラーを訂正? カナダの研究者らが発表

    このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Twitter: @shiropen2 カナダの研究所Perimeter Institute for Theoretical Physicsとエジンバラ大学に所属する研究者らが発表した論文「The Penrose Tiling is a Quantum Error-Correcting Code」は、繰り返さないパターンである「ペンローズ・タイリング」が、量子コンピュータの誤り訂正に応用できることを提案した研究報告である。 量子コンピュータは量子力学の原理を利用することで、従来のコンピュータでは解くことが難しい問題を高速に解くことができる。しかし、量子情報は環境ノイズからの影響に

    周期性のない図形「ペンローズ・タイル」が量子コンピュータのエラーを訂正? カナダの研究者らが発表
    macro1597
    macro1597 2024/03/27
  • 大規模言語モデルで将棋AIを作る - TadaoYamaokaの開発日記

    先日、dlshogiをPyTorch Lightningに対応させてマルチGPUで学習できるようにした。 これは、より大規模なモデルで将棋を学習するための布石でもある。 Transformerを使ったLLMで使われている技術将棋に応用することを計画している。 「Deep Learning Shogi」(dlshogi)にちなんで、「Large Language Shogi」(llshogi)として開発していきたい。 ※モデルサイズは昨今のLLM並みに数兆パラメータとかにはできないので、LargeはLLMの技術を使うという意味で。 ベースラインの方針 まずベースラインとして、「Grandmaster-Level Chess Without Search」を参考にして、Transformerによる将棋の方策を実装したい。 トークン 以前に、将棋でTransformerモデル(Multi-He

    大規模言語モデルで将棋AIを作る - TadaoYamaokaの開発日記
    macro1597
    macro1597 2024/03/27