AI界を席巻する「Transformer」を解説するシリーズ1日目です。 原文は、「Attention Is All You Need」で、Google Brain、Google Research、University of Trontoのメンバー達が2017年に公開したものです。論文は分かりにくいタイトルが多い中で、このタイトルは秀逸ですね。 入れ替わりが激しいAI技術ですが、Transformerは、2021年5月時点でむしろその勢いを増してる技術で、今回はその土台となった論文です。 Attention Is All You Needの論文PDFはこちら 1日目: Abstract 2日目: Introduction / Background 3日目: Model Architecture 1 4日目: Model Architecture 2 5日目: Model Architect