この記事は中国のNLP研究者Jianlin Su氏が運営するブログ「科学空間」で掲載された解説記事の日本語訳です。 原文の掲載日は2024/3/18です。 苏剑林. (Mar. 18, 2024). 《时空之章:将Attention视为平方复杂度的RNN 》[Blog post]. Retrieved from https://kexue.fm/archives/10017 近年、線形時間の学習・推論計算量を持つRNNが、少なからずの研究者やユーザーから改めて注目され始めており、どこか「文芸復興」の様相を呈している。その代表作にRWKV、RetNet、Mambaなどが挙げられる。RNNを言語モデルとして使う際の最大の特徴は一回の生成が費やす空間・時間計算量が定数であることだ。系列全体でみると、定数の空間計算量と線形な時間計算量を持つことになる。もちろん、どんな物事にも両面性がある。Atte
![【翻訳転載】時空の旅:Attentionは二乗時間RNN - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/5730981e6b204a3f2a168d1750aa73b537166f92/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-9f5428127621718a910c8b63951390ad.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTkxNiZoPTMzNiZ0eHQ9JUUzJTgwJTkwJUU3JUJGJUJCJUU4JUE4JUIzJUU4JUJCJUEyJUU4JUJDJTg5JUUzJTgwJTkxJUU2JTk5JTgyJUU3JUE5JUJBJUUzJTgxJUFFJUU2JTk3JTg1JUVGJUJDJTlBQXR0ZW50aW9uJUUzJTgxJUFGJUU0JUJBJThDJUU0JUI5JTk3JUU2JTk5JTgyJUU5JTk2JTkzUk5OJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmdHh0LWNsaXA9ZWxsaXBzaXMmdHh0LWFsaWduPWxlZnQlMkN0b3Amcz1lMjExYWRlYWMzNWQ2MjQwMzFiZDRiM2FhNDVmODk2ZA%26mark-x%3D142%26mark-y%3D112%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTcxNiZ0eHQ9JTQweGlhb19taW5nJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9MzImdHh0LWFsaWduPWxlZnQlMkN0b3Amcz0yY2NjMzI2ODJiOTA1YmVjODFiNDVkYjU1M2NhMjlkOA%26blend-x%3D142%26blend-y%3D491%26blend-mode%3Dnormal%26s%3Dffffa4b162ed155fb7c2ed2f313acaee)