エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
イラストで理解するTransformer/自己注意機構 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
イラストで理解するTransformer/自己注意機構 - Qiita
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure y... Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 1. Transformerの全体図 Transformerの全体図を図1-1に示しました。Transformerの提案論文 "Attention is all you need" で説明されている図はもう少し複雑な構造となっていますが、ここでは理解を優先するため、重要な部分を残してかなり簡略化しています。 Transformerは大きく、エンコーダとデコーダに分かれています。Transformer内部の処理は極めて複雑なため、実際にデータ流れを追って何が行われているのか人間が理解しようというのは不可能です。そのため、「おそらくこのよう

