エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
BERTを用いて文章の文法的な正しさをスコア化する - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
BERTを用いて文章の文法的な正しさをスコア化する - Qiita
こんにちにゃんです。 水色桜(みずいろさくら)です。 本記事では、BERTを用いて文章の文法的な正しさ... こんにちにゃんです。 水色桜(みずいろさくら)です。 本記事では、BERTを用いて文章の文法的な正しさをスコアリングする方法について書いていこうと思います。 本記事は を元として、書いています。(この論文は英語に関して実装していますが、本記事では日本語に関して実装していきます。) (上記の論文に関して日本語で解説している記事↓) BERTのようなMLMモデルでは従来のAutoregressive Modelsは適用することができません。論文で解説された擬似対数尤度スコアを用いて本記事では文法的な正しさをスコア化します。論文では、擬似対数尤度スコアによる MLM Scoring が、GPT-2 のような Autoregressive Models での言語モデルのスコアと同程度、あるいはそれよりも高い確率で、言語学的に正しい文章を判断できることを実験で示していました。 実装 では実際にこの論