タグ

bertとreviewに関するmanboubirdのブックマーク (2)

  • NLP2020参加報告(勝手にクロージング編) | | AI tech studio

    こんにちは。AI Creative Division の澤井です。プロダクト側に所属する NLP/MLエンジニア [1] です。 初のオンライン開催となった今年の言語処理学会年次大会(NLP2020) も無事に終了となりました。この記事では 勝手にクロージング編 と題して、個人的に印象に残った発表を言語資源や自然言語生成に関する研究を中心に紹介していきます。 なお、NLP2020の予稿集はまだ一般公開されていませんので、暫定的に参加者専用のURLを記載しています。 言語資源に関する研究 ごく個人的にですが修士のころに比べると現在仕事としても自然言語処理に関わるようになってからは、日語データセットの重要性をより強く感じるようになりました。特に、基礎解析のための統語構造や、辞書レベルでの語義・固有表現タグの拡充は、応用事例においては(タスク・ドメインによっては決定的に)重要だと考えています。

    NLP2020参加報告(勝手にクロージング編) | | AI tech studio
  • 自然言語処理界隈の巨人:Transformerモデルのご紹介 - Platinum Data Blog by BrainPad

    記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 今回のブログでは、発展を続ける「自然言語処理」技術の中から、さまざまな自然言語処理の課題を非常に高い精度で解決する「Transformer」モデルをテーマに、なぜ分析精度が高いのかを解説します! はじめに こんにちは、アナリティクス部アナリティクスサービス部の董です。 2017年に Google が発表した「attention is all you need」という論文で提案された「Transformer」は、機械翻訳や文章カテゴリの分類、文章生成等、さまざまな自然言語処理の課題を非常に高い精度で解決し、革命的な進歩で発展しています。当社でもTransformerモデルを業務に生かすことで、これまでは不可能だった分析が可能となっています。 ブログでは、「なぜTransformerモデル

    自然言語処理界隈の巨人:Transformerモデルのご紹介 - Platinum Data Blog by BrainPad
  • 1