Transformerという手法は必ずしも万能でも効率的でもない。 むしろTransformerは非効率的だというのが一般的な見解だ。しかし、Transformerには実績があり、実績という壁の前には多少(かどうかわからないが)の非効率は無視される。 他にもHyenaなどもっと効率的と思われる手法が提案されているが、そうした提案の一つがRWKVである。 そもそもなぜTransformerが必要になったかというと、それまで言語モデルに用いられていたRNN(Recurrent Neural Network)は並列処理が難しかったからだ。並列処理が難しい理由は簡単で、言葉というのは過去から未来へ向かって一方向に進むからである。 言語モデルは全て「この文章に続く単語は何か」を予測し、それを連鎖的に繰り返していくが、RNNは単語をひとつひとつ選んでいかないと次の単語を原理的に予測できない。 これを並
![これは衝撃!1.5Bで超高性能LLM!RWKV-5-World-v2|shi3z](https://cdn-ak-scissors.b.st-hatena.com/image/square/4c9acb6aa2bcb28283323ca8fb2e545d863ccdd2/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F121665835%2Frectangle_large_type_2_04c69ae69a2b958e8e88540458d4d5d5.png%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)