Attentionは不要!?Google BrainによるTransformer型モデルに対抗できるgMLPを詳細解説! 2021.05.26 AI論文 学術研究, 画像処理, 自然言語処理 はじめに Google Brainが全結合層を基本としたニューラルネットワークがTransformerと同程度の精度を出すことができることを研究で明らかにしました。この結果、NLP(自然言語処理)だけではなく、最近ではCV(画像処理)の分野でもデファクトスタンダードになりつつあったTransformerをベースとしたモデル構成に再考が求められることになります。 なお、今回利用した図はすべて下記論文(「Pay Attention to MLPs」)から引用しております。 ●Transformer系の解説記事 Facebookチームが開発した画像分類にTransformerを利用した効率モデルDeiTを紹
![Attentionは不要!?Google BrainによるTransformer型モデルに対抗できるgMLPを詳細解説!](https://cdn-ak-scissors.b.st-hatena.com/image/square/5766c746d0383e9b636cf67266743e303dfc7309/height=288;version=1;width=512/https%3A%2F%2Fdeepsquare.jp%2Fwp-content%2Fuploads%2F2021%2F05%2Faimage-730x410.jpg)