素のmultilingualモデルをfine-tuningするだけでもそこそこ精度出てる。自前でコーパス用意してpre-trainingするのは大変そうなイメージだけどわりと現実的なのかな。

keijakkeijak のブックマーク 2018/12/04 18:41

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

BERT with SentencePiece で日本語専用の pre-trained モデルを学習し、それを基にタスクを解く - クックパッド開発者ブログ

    研究開発部の菊田(@yohei_kikuta)です。機械学習を活用した新規サービスの研究開発(主として画像分析系)に取り組んでいます。 最近は、社内の業務サポートを目的として、レシピ機械学習モデルで分類して Re...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう