記事へのコメント34

    • 注目コメント
    • 新着コメント
    richard_raw
    richard_raw さっぱりわからないがブックマーク。

    2020/09/11 リンク

    その他
    harumomo2006
    harumomo2006 なるほど、わからん

    2020/09/01 リンク

    その他
    aosiro
    aosiro なるほど!なるほどなるほどなるほどな!

    2020/09/01 リンク

    その他
    aox
    aox ⊙ ←なんですかこれ

    2020/09/01 リンク

    その他
    kastro-iyan
    kastro-iyan なるほど、分からん

    2020/08/31 リンク

    その他
    augsUK
    augsUK Attention Is All You Need. が画像分野にも。なんか音声認識だけ最適解がないまま遅れてってるような

    2020/08/31 リンク

    その他
    Cru
    Cru 言語解析のネットワークが画像に使えるのかー。GANに応用されると恐ろしいレベルのfakeが生成されるようになったりしないよな

    2020/08/31 リンク

    その他
    clannad35
    clannad35 畳み込んでんならタイトル変えてよ

    2020/08/31 リンク

    その他
    Nyoho
    Nyoho self-attentionすごいな。元々NLPで生まれたんだけど、ここまで広く適用できるとは。

    2020/08/31 リンク

    その他
    blogpants
    blogpants カンケイカンスーδ(⋅,⋅)α(⋅,⋅)テンカイッ!!

    2020/08/31 リンク

    その他
    SndOp
    SndOp すごい。最初からまったく理解できない。/旧来の画像認識でDFTを使うのは周波数スペクトルの比較で近似かどうかを判断するためと思うけど、、、SAが理解できず、もう一度読み直してもわからない。

    2020/08/31 リンク

    その他
    Expway
    Expway なるほどわからん

    2020/08/31 リンク

    その他
    acealpha
    acealpha その物体(画像)が何者か、によって使われるフィルタが変わるってのは人間に置き換えるとすごく利にかなってる感じはあるね

    2020/08/31 リンク

    その他
    nisisinjuku
    nisisinjuku わかんねw

    2020/08/31 リンク

    その他
    idainahikikomori153
    idainahikikomori153 丁寧に説明してくれてありがとうございます。私の頭が悪いせいで全然わかりませんでした。

    2020/08/31 リンク

    その他
    hzenonn
    hzenonn タイトルの付け方がうまい

    2020/08/31 リンク

    その他
    daishi_n
    daishi_n SAN値なのかストレージなのか

    2020/08/31 リンク

    その他
    aceraceae
    aceraceae 個人的にはいろいろタイムリーな記事

    2020/08/31 リンク

    その他
    misshiki
    misshiki “Self-Attentionで特徴量抽出を行う画像認識モデル”

    2020/08/31 リンク

    その他
    ssuenaga
    ssuenaga 読んだらINTチェック

    2020/08/31 リンク

    その他
    shikiarai
    shikiarai 忙しい人向けだけ見てほんとか〜?って懐疑的な目で見て終わった

    2020/08/31 リンク

    その他
    sjn
    sjn 「SANでチェックして」「どっちの?」

    2020/08/31 リンク

    その他
    blueboy
    blueboy  畳み込み →  https://postd.cc/how-do-convolutional-neural-networks-work/  幾何学的な処理。/ self-attention → https://j.mp/32G8H91  自然言語処理で使われ、関係を行列で示す。幾何学よりも抽象的。それを画像処理にも適用。

    2020/08/31 リンク

    その他
    kekera
    kekera kerasにモデルが実装されたら試してみたい

    2020/08/31 リンク

    その他
    knok
    knok 0章のpatchwise SAの式がpairwiseと同じになってたので編集リクエストを送った/採用された。みんな式読んでないんだろうか…

    2020/08/31 リンク

    その他
    denqueue
    denqueue Self-Attentionに関するPFN岡野原氏の解説記事(2018年) https://xtech.nikkei.com/atcl/nxt/mag/rob/18/00007/00006/

    2020/08/31 リンク

    その他
    sakana315
    sakana315 もう何でもかんでもself-attentionだな

    2020/08/31 リンク

    その他
    maketexlsr
    maketexlsr おおおお、概念として自分の仕事に使えまくる部分ありそう。しっかり考えてみる。何故そうなるのか理論的裏付けが欲しい!

    2020/08/31 リンク

    その他
    diveintounlimit
    diveintounlimit \(・ω・\)SAN値!(/・ω・)/ピンチ!

    2020/08/31 リンク

    その他
    kowa
    kowa 完全にSAだけで作られたネットワークの初期層はどんな受容野形状なんだろう?ガボールなのかしら。また色輝度で随分違うだろうなあ

    2020/08/31 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Self-Attentionを全面的に使った新時代の画像認識モデルを解説! - Qiita

    08/31 (2020): 投稿 08/31 (2020): 「畳み込みを一切使わない」という記述に関して、ご指摘を受けました...

    ブックマークしたユーザー

    • techtech05212023/05/08 techtech0521
    • facpatrysis2023/02/18 facpatrysis
    • shikimihuawei2021/10/21 shikimihuawei
    • thotentry_hatebu1972020/12/12 thotentry_hatebu197
    • wktk_msum2020/11/30 wktk_msum
    • jp-myk2020/10/17 jp-myk
    • muishizen2020/09/28 muishizen
    • richard_raw2020/09/11 richard_raw
    • rydot2020/09/09 rydot
    • mtanaka10112020/09/08 mtanaka1011
    • kuumon2020/09/06 kuumon
    • kyo_ago2020/09/06 kyo_ago
    • miguchi2020/09/05 miguchi
    • sskoji2020/09/03 sskoji
    • minowith2020/09/02 minowith
    • neo21842020/09/02 neo2184
    • NATTI2020/09/02 NATTI
    • medicalcloud2020/09/02 medicalcloud
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事