画像分類モデルに対する敵対的なパッチ攻撃は、モデルの誤分類を誘発するために、制限された画像領域(つまりパッチ)内に敵対的に細工されたピクセルを注入することを目的としています。この攻撃は、パッチを印刷し

arxiv_readerarxiv_reader のブックマーク 2022/04/12 11:53

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

PatchCleanser:あらゆる画像分類器の敵対的なパッチに対する確実に堅牢な防御

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう