タグ

ブックマーク / qiita.com/YuiKasuga (1)

  • BERTの精度を向上させる手法10選 - Qiita

    はじめに 自然言語処理タスクでBERTをfinetuningして使うことが当たり前になってきました。Kaggleなどのコンペや精度要件がきつい案件を行う場合に少しでも精度を向上させたいというシーンが増えてくると考えられます。そこで、精度向上手法をまとめます。タスクとしては分類タスクを想定しています。 文字数調整 学習済みのBERTに入力可能な単語数は最大512個です。そのため、512単語以上のテキストを使用する場合は特別な工夫が必要となります。ここの処理方法の変更が精度向上に寄与することが多いので要チェックです。 例として次のテキストから6単語取得することを考えます(句点も1単語とします) 吾輩 / は / / で / ある / 。 / 名前 / は / まだ / ない / 。 1. Head-Tail 吾輩 / は / / で / ある / 。 / 名前 / は / まだ / な

    BERTの精度を向上させる手法10選 - Qiita
    n_knuu
    n_knuu 2020/06/25
  • 1