タグ

ブックマーク / aiboom.net (9)

  • LLMなどの生成AIの背後にある思考プロセスは人間とは全く異なるかもしれないことを示す仮説『生成AIのパラドックス』 | AIDB

    言語モデルや画像生成モデルといった生成AIは、その能力の高さで注目を集めています。しかし、このようなAIが示す「知性」には予期せぬ特徴があるかもしれません。 ワシントン大学の研究者たちは「生成AIのパラドックス」という新しい仮説を提唱しています。研究者らは、生成AIが高度な出力を生み出すことができる一方で、その出力についての理解は必ずしも伴っていないという、一部のユーザーにとっての直感に反する現象を指摘しています。 例えば、AIが創造した物語について質問されたとき、その内容を正確に理解していないために誤った回答をしてしまうことがしばしばあります。 この記事では「生成AIのパラドックス」に関する論文をもとに、生成AIの背後にある思考プロセスが人間とは根的に異なる可能性について、背景と仮説の根拠例、そして今後の検証課題に焦点を当てて紹介します。 参照論文情報 ・タイトル:The Genera

    LLMなどの生成AIの背後にある思考プロセスは人間とは全く異なるかもしれないことを示す仮説『生成AIのパラドックス』 | AIDB
    misshiki
    misshiki 2023/12/18
    “『生成AIのパラドックス』は、AIが人間のような出力を生成する能力を持ちながら、それを理解する能力は必ずしも伴わないという仮説です”
  • Microsoftの研究者ら、比較的小さなサイズでもタスクによってはOpenAIのGPT-4を凌駕する言語モデル『Orca2』を開発 | AIDB

    Microsoft Researchのチームによって発表された『Orca2』は、OpenAIのGPT-4などの大規模言語モデル(LLM)に匹敵し、時には凌駕する性能を発揮するとのことです。 『Orca2』のような小規模モデルの登場により、計算リソースが限られた環境や、リアルタイム処理が求められるアプリケーションにおいても、高性能な言語モデルが利用できるようになるかもしれません。 なお、研究者らにより、将来的には大規模モデルと相互補完的に利用されるようになるべきと述べられています。 記事では、『Orca2』の背景、特徴、技術、利用シーン、GPT-4との比較、展望、そして注意点について見ていきます。 参照論文情報 タイトル:Orca 2: Teaching Small Language Models How to Reason 著者:Arindam Mitra, Luciano Del Co

    Microsoftの研究者ら、比較的小さなサイズでもタスクによってはOpenAIのGPT-4を凌駕する言語モデル『Orca2』を開発 | AIDB
    misshiki
    misshiki 2023/11/27
    “Microsoft Researchのチームによって発表された『Orca2』は、OpenAIのGPT-4などの大規模言語モデル(LLM)に匹敵し、時には凌駕する性能を発揮するとのことです。”
  • LLMベースの新しい言語『SUQL』が示唆する「非構造化データのクエリ」を処理するパラダイム | AIDB

    スタンフォード大学の研究者たちは、新しいプログラミング言語『SUQL』(Structured and Unstructured Query Language)を開発しました。 この言語は、SQL(Structured Query Language)の概念を拡張し、非構造化データのクエリ処理を可能にする新しいパラダイムを導入しています。構造化データ(例えばデータベース内のデータ)と非構造化テキストデータ(自由形式のテキストなど)の両方を処理する能力を持つ初めての言語として位置づけられています。 『SUQL』の開発は、データソースをより効果的に活用するための手法を模索する研究の一環です。従来の技術では、構造化データと非構造化データを一元的に処理することには課題がありました。 大規模言語モデル(LLM)に基づくプロンプトコンポーネントで構成される『SUQL』は、今後の開発トレンドを牽引する研究と

    LLMベースの新しい言語『SUQL』が示唆する「非構造化データのクエリ」を処理するパラダイム | AIDB
    misshiki
    misshiki 2023/11/21
    “SQL(Structured Query Language)の概念を拡張し、非構造化データのクエリ処理を可能にする新しいパラダイムを導入しています。”
  • LLMの誤り(ハルシネーション)発生原因と、「創造性と事実性のバランス」などの対策ロードマップ | AIDB

    LLMの誤り(ハルシネーション)発生原因と、「創造性と事実性のバランス」などの対策ロードマップ 2023/11/14 AI論文紹介 LLM AIDB Research 大規模言語モデル(LLM)における「ハルシネーション(幻覚)」に関する網羅的な調査報告が発表されました。ハルシネーションとは、LLMの出力が現実の事実やユーザー入力と矛盾する現象です。 研究者らは、ハルシネーションはデータ、トレーニング、推論という三つの段階に根ざしていることを明らかにしました。また、LLMの実用化に対する重大な課題であるため、より信頼性の高いモデルの開発に向けた研究の方向性を示しています。 今後のロードマップとしては、創造性と真実性のバランスに関する議論や、LLM自身に知識の境界に関する理解を深めさせることなどが挙げられています。 記事では、調査報告の核心部分を詳細に見ていきます。 参照論文情報 タイトル

    LLMの誤り(ハルシネーション)発生原因と、「創造性と事実性のバランス」などの対策ロードマップ | AIDB
    misshiki
    misshiki 2023/11/16
    “本記事で紹介した論文は、大規模言語モデル(LLM)におけるハルシネーションの問題に焦点を当て、その原因、検出方法、ベンチマーク、緩和戦略を綿密に調査しています。”
  • ユーザープロンプトをLLMが言い換えて、LLM自身が理解しやすくする手法『RaR』 | AIDB

    ユーザープロンプトをLLMが言い換えて、LLM自身が理解しやすくする手法『RaR』 2023/11/13 AI論文解説 LLM プロンプト AIDB Research 記事では、大規模言語モデル(LLM)に対するユーザーの質問・指示に対する応答の質を向上させる新しい手法「RaR(Rephrase and Respond)」について、論文をもとに紹介します。研究はカリフォルニア大学ロサンゼルス校(UCLA)の研究者によって発表されています。 「RaR」は、LLMがユーザーの質問を自身が理解しやすい形に自ら言い換える手法で、GPTシリーズ(GPT-4、GPT-3.5)など複数のLLMで効果が確認されています。 RaRの実行プロンプトは比較的シンプルであり、LLMに質問の言い換えと回答を一度に行わせることが可能です。 以下ではRaRの研究背景、理論、実行プロンプト例、実験の内容と結果、デモン

    ユーザープロンプトをLLMが言い換えて、LLM自身が理解しやすくする手法『RaR』 | AIDB
    misshiki
    misshiki 2023/11/15
    “「上記の質問を、より良く答えるために言い換えて拡張してください。元の質問の情報を全て維持してください。」 「言い換えた質問に対するあなたの答えを使って、元の質問に答えてください。」”
  • ChatGPTの効果的なプロンプト手法における「基本のキ」を理論とテンプレート両方で紹介 | AIDB

    AIDB会員限定Discordを開設いたしました! 会員登録/ログインの上、マイページをご覧ください。 --- ChatGPTなどのLLMは、自然言語を理解し、人間のように対話する能力を持っており、多くの場面でその能力を発揮しています。しかし、これらのモデルが最大限のパフォーマンスを発揮するためには、適切なプロンプト(指示テキスト)を使用することが不可欠です。 記事では、ChatGPTをはじめとするLLMの効果的なプロンプト手法に焦点を当てた論文をもとに、「基のキ」を紹介します。モデルに、より正確かつ効果的な回答を引き出すための原則と、現時点での主要なプロンプトエンジニアリングの知見を整理しました。 参照論文情報 ・タイトル:Unleashing the potential of prompt engineering in Large Language Models: a compr

    ChatGPTの効果的なプロンプト手法における「基本のキ」を理論とテンプレート両方で紹介 | AIDB
    misshiki
    misshiki 2023/11/08
    “ChatGPTをはじめとするLLMの効果的なプロンプト手法に焦点を当てた論文をもとに、「基本のキ」を紹介します。”
  • 「自分を信じて限界を超えてください」など感情をグッと込めた指示プロンプトが添えられると、ChatGPTなどのLLMのパフォーマンスは向上する | AIDB

    ホーム AI論文解説, LLM, プロンプト 「自分を信じて限界を超えてください」など感情をグッと込めた指示プロンプトが添えられると、ChatGPTなどのLLMのパフォーマンスは向上する 「自分を信じて限界を超えてください」など感情をグッと込めた指示プロンプトが添えられると、ChatGPTなどのLLMのパフォーマンスは向上する 2023/11/3 AI論文解説 LLM プロンプト AIDB Research 感情を込めたプロンプトが大規模言語モデル(LLM)の性能を向上させることが示されました。「自分を信じて限界を超えてください」や「困難は成長のチャンスです。」といった自信や成長に関わる要素を含む指示が、モデルの出力品質に貢献するとの報告です。 この発見は、人間の感情を取り入れたアプローチが、人工知能の分野においても重要な役割を果たす可能性を示唆しています。Microsoftなどの研究グル

    「自分を信じて限界を超えてください」など感情をグッと込めた指示プロンプトが添えられると、ChatGPTなどのLLMのパフォーマンスは向上する | AIDB
    misshiki
    misshiki 2023/11/06
    “「自分を信じて限界を超えてください」や「困難は成長のチャンスです。」といった自信や成長に関わる要素を含む指示が、モデルの出力品質に貢献するとの報告”
  • AIDB

    AI論文データベース

    AIDB
  • 音楽は幼児の言語能力を上げるのか【AI論文】 | アイブン

    教育データ分析 以前行われたアメリカの調査によると、就学前の教育によって、子供の将来の所得向上や生活保護受給率の低下が見込められる。(J.Heckman -Science(2006);(2013))しかし、長期的効果を持った教育とはどのようなものか。教育分野のデータ分析に基づく議論は全世界的に捗っているとは言えない。 スペインにあるIDIBELLのClément Françoiら研究者は、「言葉」と「メロディー」は幼児が人生の早い段階で抽出できる基的な要素だが、旋律的な豊かさが出生直後の子供が言葉の抽出を容易にするかどうかはまだ検証されていないことに注目し、新生児を対象に、音程的に平坦な場合と音程的に豊かな場合における音節の連続的な流れから言葉の形態を抽出する能力について実験しデータ分析した。 音楽と幼児の言語能力の関係性調査をモデル化 Clément Françoiらの研究成果の要点

  • 1