“The Switch Transformer uses a mixture-of-experts (MoE) paradigm to combine several Transformer attention blocks.”

hnishi2509hnishi2509 のブックマーク 2021/03/16 19:14

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

Google Open-Sources Trillion-Parameter AI Language Model Switch Transformer

    InfoQ Software Architects' Newsletter A monthly overview of things you need to know as an architect or aspiring architect. View an example

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう