エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
研究開発:BERTの内容の具体的に詳細な解説 - livedoor Blog(ブログ)
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
研究開発:BERTの内容の具体的に詳細な解説 - livedoor Blog(ブログ)
論文を良く読んだのですが BERTは既存の手法と比較すると成績は明確に優越するのですが、しかしこれが本... 論文を良く読んだのですが BERTは既存の手法と比較すると成績は明確に優越するのですが、しかしこれが本当に汎用的な手法とまで言えるのでしょうか? 機械翻訳,対話生成 のような可変長出力へのFine-tuningはどうやって実現するんでしょうか? 本当に効果が出るのでしょうか? 結局BERTの何が恐ろしいかって言語モデルを一回学習させとけばおそらく機械翻訳や対話生成とかも汎用的にブーストできる万能薬なのに副作用がないとこなんだよなぁ(だからpretrainモデルが公開されたらNLP全域でくそ流行ると思ってる)https://t.co/lI7697HdHQ — Ryobot | りょぼっと (@_Ryobot) 2018年10月14日 後はマシンパワーがかなり必要な事も難点だと思います。 BERT: Pre-training of Deep Bidirectional Transformers