“Switch Transformers は、マスク言語モデリング (MLM) タスクでトレーニングされた Mixture of Experts (MoE) モデルです。”

misshikimisshiki のブックマーク 2023/11/27 16:15

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

google/switch-c-2048 · Hugging Face

    Model Card for Switch Transformers C - 2048 experts (1.6T parameters for 3.1 TB) Table of Contents TL;DR Model Details Usage Uses Bias, Risks, and Limitations Training Details Evaluation Environmen...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう