エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Transformerの基本 - Qiita
はじめに 今回はTransformerで使用されている技術についてまとめておきます. 初めは自然言語処理に用い... はじめに 今回はTransformerで使用されている技術についてまとめておきます. 初めは自然言語処理に用いられていた構造ですが,画像分野でも大活躍中です. なかなかとっかかりにくい分野ですが,単純なDeepLearning は一通り学べたという人は是非Transformerについて勉強しておきましょう 今回はPowerPointの画像をペタペタ+αちょこっと説明という形式です. 1 Attention 下図のような🐶の画像があったときに人は背景を無視して🐶だけを注目できますが,CNNでは画像全体に同じ処理を繰り返すため,そういったことはできません. 例えば,以下のような流れのモデルがあるとして,GAPでは背景も含めて画像全体の特徴を平均化します. 勿論大量のデータを使うことで,前景のみを注目するようにはなりますが,CNNで表現するには学習が難しくなっちゃってるんじゃない?という問題