タグ

adversarial exampleに関するyu4uのブックマーク (5)

  • Robust Audio Adversarial Example for a Physical Attack

    This document summarizes and cites research on adversarial examples against speech recognition systems. It discusses papers that generated audio adversarial examples to target attacks on speech-to-text models, characterized temporal dependencies in audio adversarial examples, and developed approaches for creating targeted audio adversarial examples against black box speech recognition systems.Read

    Robust Audio Adversarial Example for a Physical Attack
  • 敵対的摂動入門

    数ヶ月卒論で取り組んだ程度の知識で恐縮ですが、記事ではadversarial perturbationの研究の全体像が把握できることを目指します。敵対的摂動はadversarial perturbationの直訳で(必要にかられて)僕が勝手に呼んでいるだけの用語です。この記事はなるべく短くまとめますが、需要があればもう少し長い記事も書くかもしれないです。 index 敵対的摂動とは 敵対的摂動を作る 敵対的摂動から守る 敵対的摂動とは – 有名なのは下の図ですね。出典:Explaining and Harnessing Adversarial Examples. 概要をざっくり説明すると、人の目には見えないノイズを加えることでネットワークの出力をコントロールできてセキュリティ上やばいという話です。 ガードレールに自動運転者を突っ込ませるとかstop signを無視させるとか自動検知システ

    敵対的摂動入門
  • Adversarial Patch

    We present a method to create universal, robust, targeted adversarial image patches in the real world. The patches are universal because they can be used to attack any scene, robust because they work under a wide variety of transformations, and targeted because they can cause a classifier to output any target class. These adversarial patches can be printed, added to any scene, photographed, and pr

    yu4u
    yu4u 2018/01/09
    Adversarial Patchの論文、なぜか攻撃対象の3rd party製画像認識エンジンとしてデンソーITラボさんのDemitasseが選ばれてるw
  • Fooling Neural Networks in the Physical World

    Fooling Neural Networks in the Physical World with 3D Adversarial Objects We’ve developed an approach to generate 3D adversarial objects that reliably fool neural networks in the real world, no matter how the objects are looked at. Neural network based classifiers reach near-human performance in many tasks, and they’re used in high risk, real world systems. Yet, these same neural networks are part

    Fooling Neural Networks in the Physical World
    yu4u
    yu4u 2017/11/06
    3Dプリントできるadversarial exampleしゅごい…論文はICLR'18 under review(anonymous is 何) → https://openreview.net/forum?id=BJDH5M-AW&noteId=BJDH5M-AW
  • はじめてのAdversarial Example

    今回はadversarial exampleについて解説していきます。Adversarial exampleというのは、下図のように摂動を与えることによりモデルに間違った答えを出力させてしまうもののことです。 この例では、もともとモデルがパンダと正しく分類することができていた画像に摂動を与えることで、テナガザルと誤分類させています。しかし、人間には元の画像との違いはほとんど分からず、パンダのままに見えます。 Adversarial exampleは機械学習モデルを実用化していく上で大きな問題となります。例えば、交通標識をadversarial exampleにしてしまえば、自動運転車をだませてしまう可能性があります。 注目を集めてきている研究分野ですが、まだちゃんと調べたことがないという人も多いかと思います。今回もなるべく丁寧に解説していきたいと思います。 目次 基礎 攻撃 防御 論文紹介

    はじめてのAdversarial Example
    yu4u
    yu4u 2017/10/16
    Black-Box Attack(攻撃対象のモデルの出力を正解ラベルとして自分で代わりのモデルを学習させて、それを利用して攻撃画像を作成する)は面白いなぁ…
  • 1