ブックマーク / ai-data-base.com (10)

  • オープンソースモデルでも力を合わせればGPT-4oに匹敵することを示す「Mixture-of-Agents(MoA)」アーキテクチャ | AIDB

    背景 LLMは、人の好みに合わせて調整することで、より便利で一貫性のある文章を作れるようになってきました。しかし、モデルのサイズや学習データには限界があり、単純に大きくすることで性能を上げるには莫大な費用がかかります。 一方で、LLMは種類によって得意なことが違います。例えば、複雑な指示に従うのが得意なモデルや、コードを書くのが得意なモデルなどがあります。 そこで、研究者たちは新しいアイデアを思いつきました。それは、異なる得意分野を持つLLMを組み合わせることです。 例えば、複雑な指示を理解するのが得意なモデルと、プログラミングコードを生成するのが上手なモデルを組み合わせれば、より高性能で柔軟になるのではないか、と考えたのです。 これまでにも、複数のLLMを組み合わせて使う方法はいくつか提案されてきました。例えば、出力された文章の順位を変えたり、どのモデルを使うかを選んだりする方法がありま

    オープンソースモデルでも力を合わせればGPT-4oに匹敵することを示す「Mixture-of-Agents(MoA)」アーキテクチャ | AIDB
  • 約50万件の論文査読データセット「ARIES」が公開、論文の査読&改善プロセスの分析に | AIDB

    科学論文の査読プロセスは、その品質を確保するために不可欠なステップです。しかし、そのプロセスは必ずしも透明ではなく、また時間と労力を必要とします。そこで今回は、この査読プロセスを詳細に分析し、その改善を目指すための新たなツール、ARIESについて紹介します。 ARIESは、MITなどの研究者グループが開発した大規模データセットで、約14万件の科学論文とそれに対する約50万件の査読内容から構成されています。 参照論文情報 タイトル:ARIES: A Corpus of Scientific Paper Edits Made in Response to Peer Reviews 著者:Mike D’Arcy, Alexis Ross, Erin Bransom, Bailey Kuehl, Jonathan Bragg, Tom Hope, Doug Downey 所属:MITなど URL:

    約50万件の論文査読データセット「ARIES」が公開、論文の査読&改善プロセスの分析に | AIDB
  • LLMにまず前提から尋ることで出力精度を向上させる『ステップバック・プロンプティング』と実行プロンプト | AIDB

    ステップバック・プロンプティングは極めてシンプルで具体的なテクニックながら、CoT(Chain-of-Thought prompting)やTake a Deep Breatheといった既存の手法を凌駕する性能を発揮しています。 参照論文情報 ・タイトル:Take a Step Back: Evoking Reasoning via Abstraction in Large Language Models ・著者:Huaixiu Steven Zheng, Swaroop Mishra, Xinyun Chen, Heng-Tze Cheng, Ed H. Chi, Quoc V Le, Denny Zhou ・所属:Google DeepMind ・URL:https://doi.org/10.48550/arXiv.2310.06117 従来の課題 LLMはSTEM(科学、技術、工学、

    LLMにまず前提から尋ることで出力精度を向上させる『ステップバック・プロンプティング』と実行プロンプト | AIDB
  • GPT-4をセラピストとして実行し、「認知の歪み」を診断させるためのフレームワーク『Diagnosis of Thought (DoT)』と実行プロンプト | AIDB

    近年、精神療法の領域でAIの活用に注目が集まっています。そんな中、カーネギーメロン大学などの研究者らによって新たなフレームワーク『Diagnosis of Thought (DoT)』が考案されました。このフレームワークは、LLMによって人々の「認知の歪み」を診断する目的に特化しており、専門家によって高く評価されています。 認知の歪みとは、例えば「0か100か」のような極端な考え方や、他人の考えを勝手に推測するなど、不健康な思考パターンのことを指します。 DoTフレームワークを用いた診断結果は、人間の専門家が出す診断結果とも高い一致性を示しており、その有用性が確認されています。 (追記)なお、フレームワークに基づくMyGPTを作成しました。記事末尾にURLを記載するため、興味のある方はぜひお試しください。 参照論文情報 ・タイトル:Empowering Psychotherapy wit

    GPT-4をセラピストとして実行し、「認知の歪み」を診断させるためのフレームワーク『Diagnosis of Thought (DoT)』と実行プロンプト | AIDB
  • LLMは時折「一時停止」させると、より計算し深く推論するためアウトプットの品質が向上するとの検証結果。新トークン導入フレームワーク | AIDB

    研究は、一時停止トークンという新しい手法を導入することでLLMに追加で計算を行わせ、推論を深めさせることに成功しています。記事ではその詳細をご紹介します。 また、プロンプトを工夫することで、一時停止トークンのような効果を模倣する可能性も考察しました。一般のユーザーも高度なプログラミングスキルや専門的な知識なしに、LLMの性能を向上させることができるかもしれません。 さらに記事の最後では、人間の挙動との類似性にも触れました。 参照論文情報 タイトル:Think before you speak: Training Language Models With Pause Tokens 著者:Sachin Goyal, Ziwei Ji, Ankit Singh Rawat, Aditya Krishna Menon, Sanjiv Kumar, Vaishnavh Nagarajan 所属:

    LLMは時折「一時停止」させると、より計算し深く推論するためアウトプットの品質が向上するとの検証結果。新トークン導入フレームワーク | AIDB
  • 数式や文章がぐにゃぐにゃに曲がった論文PDFでもくっきり認識する画期的なOCR『Nougat』 | AIDB

    科学的知識は主に書籍や科学誌に保存されていますが、PDF形式が一般的です。しかし、この形式は特に数学的表現においてセマンティック情報の損失を引き起こします。この問題に対処するために、Meta AIの研究チームは『Nougat(Neural Optical Understanding for Academic Documents)』という新しいOCR(光学式文字認識)技術を開発しました。 Nougatは、数式や文章が複雑に配置された画像であっても、それをマークアップ言語に高品質で変換する能力を持っています。この技術は、新しい論文だけでなく、電子データが存在しない古い書類などの解析にも非常に有用です。 参照論文情報 タイトル:Nougat: Neural Optical Understanding for Academic Documents 著者:Lukas Blecher, Guillem

    数式や文章がぐにゃぐにゃに曲がった論文PDFでもくっきり認識する画期的なOCR『Nougat』 | AIDB
  • 「わたしの話」を体系的に覚えてもらいながらLLMと会話する技術MemoChat登場 | AIDB

    人々の日常生活におけるコミュニケーションの形態が多岐にわたる中、人工知能AI)との対話も一般的になりつつあります。スマートフォンのアシスタントからカスタマーサポートのチャットボットまで、AIとの会話は私たちの生活の一部となっています。 しかし、大規模言語モデル(LLM)のチャットボットでさえも、人間と同じように長い会話を維持するのは容易ではありません。特に、会話が長くなると、一貫性のある応答を返すことが難しくなることが多いのです。 そこで、この記事では、最新の研究「MemoChat: Tuning LLMs to Use Memos for Consistent Long-Range Open-Domain Conversation」に焦点を当てます。この研究では、LLMが長い会話でも一貫性を保ち、人間のような対話を提供できるようにするための新しい方法が提案されています。 この記事を通し

    「わたしの話」を体系的に覚えてもらいながらLLMと会話する技術MemoChat登場 | AIDB
  • 大規模言語モデル同士に上手く協力してソフトウェア開発をしてもらうフレームワーク「MetaGPT」 | AIDB

    MetaGPTの設計は、個々のエージェントの操作とシステム全体の情報交換に必要な基的な構成要素を確立する「基礎コンポーネント層」と、個々のエージェントを協調して複雑な問題を解決する「協調層」の2つの層で構成されています。 基礎コンポーネント層では、エージェントが指定された役割で機能するための基盤を提供します。 一方、協調層では、個々のエージェントが協力して複雑な問題を解決するためのメカニズムが確立されています。これには、「知識共有」と「ワークフローのカプセル化」の2つの主要なメカニズムが含まれます。 知識共有とワークフローのカプセル化 「知識共有」は、エージェントが情報を効果的に交換し、共有の知識ベースを構築することを可能にします。これにより、全体の運用効率が向上し、冗長なコミュニケーションが減少します。 「ワークフローのカプセル化」は、複雑なタスクを小さな、管理可能なコンポーネントに分

    大規模言語モデル同士に上手く協力してソフトウェア開発をしてもらうフレームワーク「MetaGPT」 | AIDB
  • ChatGPTの”ふるまいの変化”を定量的に分析した結果 | AIDB

    人工知能AI)は急速に進化し、その進歩は我々の生活に多大な影響を与えています。特に、GPT-3.5やGPT-4のような大規模言語モデル(LLM)は、顧客サービス、翻訳、記事作成など、あらゆる分野で人間の作業を補完、あるいは置き換える可能性を持っています。しかし、これらのモデルの振る舞いが時間の経過とともにどのように変化するのかは、まだ十分に理解されていません。スタンフォード大学とUCバークレーの研究者たちは、この疑問に答えるための研究を行い、興味深い結果を得ました。 参照論文情報 タイトル:How is ChatGPT’s behavior changing over time? 著者:Lingjiao Chen, Matei Zaharia, James Zou 所属:スタンフォード大学、UCバークレー URL:https://doi.org/10.48550/arXiv.2307.0

    ChatGPTの”ふるまいの変化”を定量的に分析した結果 | AIDB
  • OpenAI、大規模言語モデルの数学能力を大きく向上させることに成功 | AIDB

    OpenAIは新しいフレームワーク「PRM」を発表しました。これは、大規模言語モデル(LLM)の数学能力を向上させるためのもので、AIが問題を解く際の誤りをプロセスベースで特定・修正する能力を強化します。このフレームワークで訓練した大規模言語モデルは、DeepMind社の作成した数学問題集(MTAHデータセット)において他のモデルを凌駕し最も優れたパフォーマンスを見せました。 また、この手法は数学だけでなく推論能力を必要とする広範な問題の解決にも応用できる可能性があり、注目を集めています。 参照論文情報 タイトル:Let’s Verify Step by Step 著者:Hunter Lightman, Vineet Kosaraju, Yura Burda, Harri Edwards, Bowen Baker, Teddy Lee, Jan Leike, John Schulman,

    OpenAI、大規模言語モデルの数学能力を大きく向上させることに成功 | AIDB
  • 1