エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
BERT(ディープラーニング)による自然言語処理は、どんなデータで評価されたの?どんな応用ができそう?
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
BERT(ディープラーニング)による自然言語処理は、どんなデータで評価されたの?どんな応用ができそう?
BERTとはBERTは、Bidirectional Encoder Representations from Transformers の頭文字をとったディープ... BERTとはBERTは、Bidirectional Encoder Representations from Transformers の頭文字をとったディープラーニングモデルです。 これまでのディープラーニングによる自然言語処理では、 注目単語の前方か後方かどちらか1方向の文脈情報の使用のみで学習されていました。 BERTの特徴の1つは、注目する単語の、前後の文脈の両方(Bidirectional)について学習している点にあるということです。 今後どのように応用されていきそうか興味が湧いたので、 どんなデータセットどんなタスクどのくらいの性能が報告されたのかを見てみました。 BERTは、多様なデータセットで評価されていましたこれまでの自然言語処理の多くは、タスクごとに学習を行い性能を評価することが多いです。 それに対して、BERTでは、タスクごとに区別することなく適用して、どのタスクにも