ブックマーク / note.com/sergicalsix_ (1)

  • 複数LLMを協調させるMoAの論文紹介|sergicalsix

    論文名Mixture-of-Agents Enhances Large Language Model Capabilities arXivリンクhttps://arxiv.org/pdf/2406.04692 ひとこと要約LLMのマルチエージェント化して協調させる手法:Mixture-of-Agents (MoA)を提案。単体のモデルでは到達できない性能を引き出すことに成功 メモ MoA概要複数の層から構成 各層には複数のLLMエージェントを配置 Qwen1.5-110B-Chat Qwen1.5-72B-Chat WizardLM-8x22B LLaMA-3-70B-Instruct Mixtral-8x22B-v0.1 dbrx-instruct (GPT-4o)← w/ GPT-4oに限る 下位層の出力を上位層が参照しながら、反復的に回答を洗練し エージェントには「Proposer」

    複数LLMを協調させるMoAの論文紹介|sergicalsix
    macro1597
    macro1597 2024/06/18
  • 1