エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Transformerのデータの流れを追ってみる - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Transformerのデータの流れを追ってみる - Qiita
全体図 画像中の「K」と「V」が逆になっております。申し訳ございません。 AttentionのMaskingの実装に... 全体図 画像中の「K」と「V」が逆になっております。申し訳ございません。 AttentionのMaskingの実装について Attentionのマスクの実装について悩んだので、Harvard NLPでのMaskの実装についてまとめておきます。 Transformerでは下の図のように3箇所のMulti-Head Attention(の中のScaled Dot-Product Attention)の中でMaskingが登場します。 EncoderでのSelf-Attention DecoderでのSelf-Attention DecoderでのSourceTarget-Attention Harvard NLPの実装では、1と3で使用するsrc_maskと2で使用するtgt_maskの2種類のマスクが用意されています。以下それぞれの説明です。 src_mask src_maskはEncode