論文名Mixture-of-Agents Enhances Large Language Model Capabilities arXivリンクhttps://arxiv.org/pdf/2406.04692 ひとこと要約LLMのマルチエージェント化して協調させる手法:Mixture-of-Agents (MoA)を提案。単体のモデルでは到達できない性能を引き出すことに成功 メモ MoA概要複数の層から構成 各層には複数のLLMエージェントを配置 Qwen1.5-110B-Chat Qwen1.5-72B-Chat WizardLM-8x22B LLaMA-3-70B-Instruct Mixtral-8x22B-v0.1 dbrx-instruct (GPT-4o)← w/ GPT-4oに限る 下位層の出力を上位層が参照しながら、反復的に回答を洗練し エージェントには「Proposer」
![複数LLMを協調させるMoAの論文紹介|sergicalsix](https://cdn-ak-scissors.b.st-hatena.com/image/square/b779307b8410c716ffc660c2ce2b755795097989/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F143999012%2Frectangle_large_type_2_2f9b72390997a652462cf6b52ebac223.png%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)