“前前回は学習の効率化、前回は精度改善について書かせていただきましたが、今回は精度改善にも関わりますが、過学習の抑制について”

misshikimisshiki のブックマーク 2023/01/23 17:02

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

Kaggleで学んだBERTをfine-tuningする際のTips③〜過学習抑制編〜 | 株式会社AI Shift

    こんにちは AIチームの戸田です 記事では前回、前前回に引き続き、私がKaggleのコンペティションに参加して得た、Transformerをベースとした事前学習モデルのfine-tuningのTipsを共有させていただきます 前前回...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう