サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
TGS2024
jpsec.ai
本連載は「AI*セキュリティ超入門」と題し、AIセキュリティに関する話題を幅広く・分かり易く取り上げていきます。本連載を読むことで、AIセキュリティの全体像が俯瞰できるようになるでしょう。 本コラムでは、画像分類や音声認識など、通常は人間の知能を必要とする作業を行うことができるコンピュータシステム、とりわけ機械学習を使用して作成されるシステム全般を「AI」と呼称することにします。 *本コラムにおける【AI】の定義 連載一覧 「AIセキュリティ超入門」は全8回のコラムで構成されています。 第1回:イントロダクション – AIをとりまく環境とセキュリティ – 第2回:AIを騙す攻撃 – 敵対的サンプル – 第3回:AIを乗っ取る攻撃 – 学習データ汚染 – 第4回:AIのプライバシー侵害 – メンバーシップ推論 – 第5回:AIの推論ロジックを改ざんする攻撃 – ノード注入 – 第6回:AIシ
本コラムは、AIの安全を確保する技術を理解していただくために書かれています。本コラムの内容を検証する場合は、必ずご自身の管理下にあるシステムにて、ご自身の責任の下で実行してください。許可を得ずに第三者のシステムで実行した場合、法律により罰せられる可能性があります。 本コラムの内容を深く理解するには、敵対的サンプルの基本知識を有していることが好ましいです。 敵対的サンプルをご存じでない方は、事前にAIセキュリティ超入門:第2回 AIを騙す攻撃 – 敵対的サンプル –をご覧ください。 ハンズオン 本コラムは、実践を通じてARTを習得することを重視するため、ハンズオン形式で進めていきます。 ハンズオンは、皆様のお手元の環境、または、筆者らが用意したGoogle Colaboratory*2にて実行いただけます。 Google Colaboratoryを利用してハンズオンを行いたい方は、以下のUR
本連載は「AIセキュリティ超入門」と題し、AIセキュリティに関する話題を幅広く・分かり易く取り上げ、連載形式でお伝えしていきます。なお、本コラムでは、単にAIに対する攻撃手法や想定されるリスクのみを取り上げるのではなく、AIを攻撃から守る方法や気を付けるべきAI開発のポイントなども取り上げていきます。 AIセキュリティ超入門のコラム一覧 本コラムは全8回の連載形式になっています。 今後、以下のタイトルで順次掲載していく予定*1です。 第1回:イントロダクション – AIをとりまく環境とセキュリティ –第2回:AIを騙す攻撃 – 敵対的サンプル –第3回:AIを乗っ取る攻撃 – 学習データ汚染 –第4回:AIのプライバシー侵害 – メンバーシップ推論 –第5回:AIの推論ロジックを改ざんする攻撃 – ノード注入 –第6回:AIシステムへの侵入 – 機械学習フレームワークの悪用 –第7回:AI
近年、ディープラーニングをはじめとする様々な機械学習を活用したAI*1の発展に伴い、日本国内においても顔認証システムや防犯システム、自動運転技術など、様々な分野でAIの社会実装が進んでいます。 その一方で、AIに対する攻撃手法も数多く生まれており、「AIを防御する技術」の確立が急務となっています。 しかし、AIに対する攻撃手法は既存システムに対する攻撃手法とは根本的に原理が異なるものが多く、従来のセキュリティ技術のみで対策することは非常に困難です。 そこで本コラムでは「AIセキュリティ超入門」と題し、AIセキュリティに関する話題を幅広く・分かり易く取り上げ、連載形式でお伝えしていきます。 なお、本コラムでは、単にAIに対する攻撃手法や想定されるリスクのみを取り上げるのではなく、AIを攻撃から守る方法や気を付けるべきAI開発のポイントなども取り上げていきます。 本コラムが、皆さまのAIセキュ
機械学習セキュリティのベストプラクティス – Draft NISTIR 8269: A Taxonomy and Terminology of Adversarial Machine Learning – 論文紹介 概要 「Draft NISTIR 8269: A Taxonomy and Terminology of Adversarial Machine Learning」は、米国のNIST(National Institute of Standards and Technology)が策定を進めている機械学習セキュリティに関するベストプラクティスのドラフトであり、機械学習システムの安全確保を目的として、機械学習にまつわるセキュリティを「攻撃」「防御」「影響」の3つの視点で分類している。 NISTIR8269はブログ執筆時点(2020年7月9日)でドラフト版であるが、「NIST SP8
このページを最初にブックマークしてみませんか?
『バックドアを深層学習モデルへ仕掛けるOSS『TrojAI』解説』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く