本記事は,Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models With Attention)を和訳した内容になります。引用元はJay Alammarさん(@JayAlammar)が執筆されたブログ記事で,MITの授業でも実際に利用されています。 所々に管理人の注釈が入ります。その場合は,このような鉛筆印のボックス内に記述するようにしています。もし翻訳間違いなどがございましたら,ご指摘いいただけますと幸いです。なお,本記事の作成に関しては,Jay Alammarさんに許可をいただいております。 はじめに Sequence-to-sequenceは深層学習で用いられるモデルの1つであり,機械翻訳や文章要約,画像キャプションの付与などの分野で大きな成功を収めています。Google翻訳では,2016