エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
"Attention is All You Need" は本当か調べる - Re:ゼロから始めるML生活
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
"Attention is All You Need" は本当か調べる - Re:ゼロから始めるML生活
”Attention is All You Need”というタイトルでTransformerの論文が発表されてから随分経ちます。 ただ、... ”Attention is All You Need”というタイトルでTransformerの論文が発表されてから随分経ちます。 ただ、最近は”大事なのはSelf Attentionじゃない”といった趣旨の論文をちらほら見かけるようになってきていると感じていて、これについて自分用のメモがてらまとめてみようと思います。 出発点:Transformer Transformer Vision Transformer (ViT) Attention Attentionを使わなかったモデル MLP-Mixer MetaFormer (PoolFormer) gMLP ConvNeXt Attentionは本当に大事?に関する私見 参考文献 論文メモ 感想 出発点:Transformer まずはTransformerの構造について紹介しないと、Self Attentionが重要かどうか云々についてもわ