スパース条件付き計算を使用したMixture-of-Experts(MoE)は、注意ベースのモデルを同等の計算コストでより多くのパラメーターにスケーリングするための効果的なアーキテクチャであることが証

arxiv_readerarxiv_reader のブックマーク 2021/09/10 10:00

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

Sparse-MLP:条件付き計算を備えた完全MLPアーキテクチャ

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう