著者のManu Suryavansh氏は機械学習エンジニアとしてキャリアを積んだ後、2020年1月からAppleでデータサイエンティストとして勤めています。同氏がMediumに投稿した記事『2019年はBERTとTransformerの年だった』では、近年の自然言語処理の動向がBERTを中心軸としてまとめられています。 TransformerとBERTが発表される以前の自然言語処理モデルでは、時系列データを処理するRNNとその発展形であるLSTMが使われてきました。このLSTMには、構造が複雑になってしまうという欠点がありました。こうしたなか、2017年6月に発表された論文「Attentionこそ必要なすべてのもの」で論じられた言語モデルTransformerとAttentionと呼ばれる手法は、LSTMのような複雑な構造を使わずに高性能を実現したのでその後の言語モデル開発に大きな影響を与
![2019年はBERTとTransformerの年だった | AI専門ニュースメディア AINOW](https://cdn-ak-scissors.b.st-hatena.com/image/square/a6dbb1b3106a82e76a1d0189ac68b702fdd5a5cb/height=288;version=1;width=512/https%3A%2F%2Fainow.ai%2Fwp-content%2Fuploads%2F2020%2F02%2FTranslationArticle-Feb2020-NLP-image1.png)