"largest transformer based language model ever trained at 24x the size of BERT and 5.6x the size of GPT-2"

RyobotRyobot のブックマーク 2019/08/14 14:35

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

MegatronLM: Training Billion+ Parameter Language Models Using GPU Model Parallelism

    Larger language models are dramatically more useful for NLP tasks such as article completion, question answering, and dialog systems. Training the largest neural language model has recently been th...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう