一番最初に。 この記事ちらかってますので、一番最初に以下のことをことわっておきます。 self-attentionというのは、1種類ではないです。transformerのが有名かもしれませんが。 self-attentionが、単語のembeddingを掛け算して、似たものを反応させていると思われている方がいるかもしれませんが、直接の掛け算は、していない。少なくとも、重みも込みで掛け算しているので、似たものが。。。というような作用はあまり残っていないはず(※1)。また、self-attentionの中でも、かけるものもあれば、かけないものもある。 (※1) 反例。。。ですが、(その19)Self-Attention Generative Adversarial Networks にて、まさに、似た部分に作用の例を追加しました。2022/01/20。だから、重みがあっても、めちゃくちゃにはな
![自己注意Self-Attention の解説でわかりやすいと思った記事N選 (N=21) - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/198698e1ebf7d15bc725067b5426c246203ad8ab/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9JUU4JTg3JUFBJUU1JUI3JUIxJUU2JUIzJUE4JUU2JTg0JThGU2VsZi1BdHRlbnRpb24lMjAlRTMlODElQUUlRTglQTclQTMlRTglQUElQUMlRTMlODElQTclRTMlODIlOEYlRTMlODElOEIlRTMlODIlOEElRTMlODIlODQlRTMlODElOTklRTMlODElODQlRTMlODElQTglRTYlODAlOUQlRTMlODElQTMlRTMlODElOUYlRTglQTglOTglRTQlQkElOEJOJUU5JTgxJUI4JUUzJTgwJTgwJTI4TiVFRiVCQyU5RDIxJUVGJUJDJTg5JnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmdHh0LWFsaWduPWxlZnQlMkN0b3Amcz1kNTc1MjE3Y2YxYzBmYTRkYjlmMTkxOWYwNTk2NjcyYw%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBlbm91Z2hzcGFjZWZvciZ0eHQtY29sb3I9JTIzMjEyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTM2JnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnM9M2QzMDBkNGMyYTk1MGMyYTY4YTNkZWM2NTA1NzI0MmE%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3Da73719581102ef50e4c859ee5ca93271)