0. 忙しい方へ 完全に畳み込みとさようならしてSoTA達成したよ Vision Transformerの重要なことは次の3つだよ 画像パッチを単語のように扱うよ アーキテクチャはTransformerのエンコーダー部分だよ 巨大なデータセットJFT-300Mで事前学習するよ SoTAを上回る性能を約$\frac{1}{15}$の計算コストで得られたよ 事前学習データセットとモデルをさらに大きくすることでまだまだ性能向上する余地があるよ 1. Vision Transformerの解説 Vision Transformer(=ViT)の重要な部分は次の3つです。 入力画像 アーキテクチャ 事前学習とファインチューニング それぞれについて見ていきましょう。 1.1 入力画像 まず入力画像についてです。ViTはTransformerをベースとしたモデル(というより一部を丸々使っている)ですが、
![画像認識の大革命。AI界で話題爆発中の「Vision Transformer」を解説! - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/25c225e3247a1e9e799082078c5dd256f48d5ae8/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9JUU3JTk0JUJCJUU1JTgzJThGJUU4JUFBJThEJUU4JUFEJTk4JUUzJTgxJUFFJUU1JUE0JUE3JUU5JTlEJUE5JUU1JTkxJUJEJUUzJTgwJTgyQUklRTclOTUlOEMlRTMlODElQTclRTglQTklQjElRTklQTElOEMlRTclODglODYlRTclOTklQkElRTQlQjglQUQlRTMlODElQUUlRTMlODAlOENWaXNpb24lMjBUcmFuc2Zvcm1lciVFMyU4MCU4RCVFMyU4MiU5MiVFOCVBNyVBMyVFOCVBQSVBQyVFRiVCQyU4MSZ0eHQtY29sb3I9JTIzMjEyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTU2JnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnM9Y2Y3YmU5ZmRhMjUyZjk4M2I1M2Q3M2JhNjNmODMyMjU%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBvbWlpdGEmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPWQ0ODZlZTMzZjg0NGYwOGYxMTY0MGY2ZTI0NDM1YTUz%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3D651740e1613ff2e9f9e87ea650adecb0)