BERTは、自然言語処理における多くの問題を解決するために使用できます。あなたはどのようにより多くのタスクのための微調整BERTに学びますGLUEベンチマーク: COLA (言語受容性のコーパス):文は文法的に正しいですか? SST-2 (スタンフォード感情ツリーバンク):タスクは、所与の文の感情を予測することです。 MRPC (マイクロソフトリサーチ言い換えコーパス):文のペアは意味的に等価であるかどうかを確認します。 QQP (Quoraの質問Pairs2):質問のペアは意味的に等価であるかどうかを確認します。 MNLI (多ジャンル自然言語推論):前提文と仮説文を考えると、タスクは、前提が仮説(含意)を必要とするかどうかを予測することであるという仮説(矛盾)が矛盾する、またはどちらも(ニュートラル)。 QNLI (質問応答自然言語推論):タスクコンテキスト文は、質問への答えが含まれて
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く