サクサク読めて、アプリ限定の機能も多数!
Self-Attentionに関するPFN岡野原氏の解説記事(2018年) https://xtech.nikkei.com/atcl/nxt/mag/rob/18/00007/00006/
denqueue のブックマーク 2020/08/31 13:52
Self-Attentionを全面的に使った新時代の画像認識モデルを解説! - QiitaSelf-Attentionに関するPFN岡野原氏の解説記事(2018年) <a href="https://xtech.nikkei.com/atcl/nxt/mag/rob/18/00007/00006/" target="_blank" rel="noopener nofollow">https://xtech.nikkei.com/atcl/nxt/mag/rob/18/00007/00006/</a>2020/08/31 13:52
Self-Attentionに関するPFN岡野原氏の解説記事(2018年) <a href="https://xtech.nikkei.com/atcl/nxt/mag/rob/18/00007/00006/" target="_blank" rel="noopener nofollow">https://xtech.nikkei.com/atcl/nxt/mag/rob/18/00007/00006/</a>
このブックマークにはスターがありません。 最初のスターをつけてみよう!
qiita.com/omiita2020/08/31
08/31 (2020): 投稿 08/31 (2020): 「畳み込みを一切使わない」という記述に関して、ご指摘を受けましたので追記いたしました。線形変換においては「チャネル間の加重和である1x1畳み込み」を実装では用いていま...
480 人がブックマーク・34 件のコメント
\ コメントが サクサク読める アプリです /
Self-Attentionに関するPFN岡野原氏の解説記事(2018年) https://xtech.nikkei.com/atcl/nxt/mag/rob/18/00007/00006/
このブックマークにはスターがありません。
最初のスターをつけてみよう!
Self-Attentionを全面的に使った新時代の画像認識モデルを解説! - Qiita
08/31 (2020): 投稿 08/31 (2020): 「畳み込みを一切使わない」という記述に関して、ご指摘を受けましたので追記いたしました。線形変換においては「チャネル間の加重和である1x1畳み込み」を実装では用いていま...
480 人がブックマーク・34 件のコメント
\ コメントが サクサク読める アプリです /