エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Adversarial Attackされた画像にGrad-CAMで異変に気付けるか実装しながら試してみる - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Adversarial Attackされた画像にGrad-CAMで異変に気付けるか実装しながら試してみる - Qiita
はじめに Adversarial Attackをご存知でしょうか?日本語で敵対的攻撃ですかね。 以下のパンダがテナガ... はじめに Adversarial Attackをご存知でしょうか?日本語で敵対的攻撃ですかね。 以下のパンダがテナガザルに誤判定される例は有名かと思います。人間には分からない微小なノイズを画像に重ねることでAIを誤判定させています。 引用元:EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES こういったAIに対する攻撃を応用すると、例えば自動運転AIに対し、道路標識を誤認識させて、止まらないといけないところで直進させる、なんてこともできてしまうかもしれません。 上図の右側のようにAIに誤判定させるような画像のことをAdversarial Exampleとかいったりして、Adversarial Exampleの作り方も、上図のように微小なノイズ(Adversarial Exampleの文脈ではよく摂動と言われます)を加えたり、画像の一部を意図的に欠損

