PythonライブラリART「Adversarial Robustness Toolbox」。“AIに対する攻撃手法(敵対的サンプル攻撃、データ汚染攻撃、モデル抽出、メンバーシップ推論など)とそれらに対する防御手法を検証”ができる。第2回 標的型の回避攻撃

misshikimisshiki のブックマーク 2020/09/28 14:10

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

第2回:敵対的サンプル -標的型の回避攻撃-

    コラムは、AIの安全を確保する技術を理解していただくために書かれています。コラムの内容を検証する場合は、必ずご自身の管理下にあるシステムにて、ご自身の責任の下で実行してください。許可を得ずに第三...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう