タグ

ブックマーク / jpsec.ai (2)

  • 第3回:Adversarial Training -回避攻撃の対策-

    コラムは、AIの安全を確保する技術を理解していただくために書かれています。コラムの内容を検証する場合は、必ずご自身の管理下にあるシステムにて、ご自身の責任の下で実行してください。許可を得ずに第三者のシステムで実行した場合、法律により罰せられる可能性があります。 コラムの内容を深く理解するには、敵対的サンプルの基知識を有していることが好ましいです。 敵対的サンプルをご存じでない方は、事前にAIセキュリティ超入門:第2回 AIを騙す攻撃 – 敵対的サンプル –をご覧ください。 ハンズオン コラムは、実践を通じてARTを習得することを重視するため、ハンズオン形式で進めていきます。 ハンズオンは、皆様のお手元の環境、または、筆者らが用意したGoogle Colaboratory*2にて実行いただけます。 Google Colaboratoryを利用してハンズオンを行いたい方は、以下のUR

    第3回:Adversarial Training -回避攻撃の対策-
    lanius
    lanius 2020/10/03
    Adversarial Robustness Toolbox(ART).
  • 第1話 ~AIをとりまく環境とセキュリティ~

    近年、ディープラーニングをはじめとする様々な機械学習を活用したAI*1の発展に伴い、日国内においても顔認証システムや防犯システム、自動運転技術など、様々な分野でAIの社会実装が進んでいます。 その一方で、AIに対する攻撃手法も数多く生まれており、「AIを防御する技術」の確立が急務となっています。 しかし、AIに対する攻撃手法は既存システムに対する攻撃手法とは根的に原理が異なるものが多く、従来のセキュリティ技術のみで対策することは非常に困難です。 そこでコラムでは「AIセキュリティ超入門」と題し、AIセキュリティに関する話題を幅広く・分かり易く取り上げ、連載形式でお伝えしていきます。 なお、コラムでは、単にAIに対する攻撃手法や想定されるリスクのみを取り上げるのではなく、AIを攻撃から守る方法や気を付けるべきAI開発のポイントなども取り上げていきます。 コラムが、皆さまのAIセキュ

    第1話 ~AIをとりまく環境とセキュリティ~
  • 1