"MoAは、機械学習の有名な手法であるMixture-of-Experts(MoE)からヒントを得ています。" 同じものかも思ってた。GP超えはにわかには信じがたい。それができるなら人が複数を組み合わせをしてもできるだろう

shodaishodai のブックマーク 2024/06/22 03:04

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

オープンソースモデルでも力を合わせればGPT-4oに匹敵することを示す「Mixture-of-Agents(MoA)」アーキテクチャ | AIDB

    背景 LLMは、人の好みに合わせて調整することで、より便利で一貫性のある文章を作れるようになってきました。しかし、モデルのサイズや学習データには限界があり、単純に大きくすることで性能を上げるには莫大な...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう