3つの要点 ✔️ 動画像のための時空間Self-Attentionを4種考案した. ✔️ 3DCNNモデルと比較して,学習速度が速く,テスト効率が向上した. ✔️ 3DCNNモデルでは数秒の動画しか処理できなかったが,数分の長い動画に適用することも可能になった. Is Space-Time Attention All You Need for Video Understanding? written by Gedas Bertasius, Heng Wang, Lorenzo Torresani (Submitted on 9 Feb 2021 (v1), last revised 9 Jun 2021 (this version, v4)) Comments: Accepted to ICML 2021 Subjects: Computer Vision and Pattern Reco
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く