
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
論文の勉強17 「Vision Transformer(ViT)」 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
論文の勉強17 「Vision Transformer(ViT)」 - Qiita
背景などは説明はしません。 以下の論文を読んでいきます。 途中GoogleColabのユニット(?)を使い切って... 背景などは説明はしません。 以下の論文を読んでいきます。 途中GoogleColabのユニット(?)を使い切ってしまい。動くことは確認していますが。 一部出力結果がありません。 自然言語処理で事実上の標準技術となっているtransformerを画像に適用したものです。 大規模データセットで学習させることでCNNベースの精度を超えることが可能となりました。 実装自体は通常のtransformerと変わらないので、比較的簡単ではないかと思います。 そのためか実装したという記事も多数あります。こちらは解説というより勉強のメモ書きなので、学習される方は他の記事を参考にしてください。 Method Vision Transformer(ViT) 概要を図に示す。 標準的なTransformerはトークンembeddingの1次元の系列を入力として受け取ります。 2次元の画像を扱うために、画像を$\b