大規模な事前トレーニングとタスク固有の微調整は、現在、コンピューター ビジョンと自然言語処理の多くのタスクの標準的な方法論です。最近、視覚と言語の BERT を事前トレーニングして、AI のこれら 2

arxiv_readerarxiv_reader のブックマーク 2021/06/01 12:08

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

マスクされていないマルチモーダル事前トレーニング: 視覚と言語の BERT のメタ分析と統合フレームワーク

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう