ホーム 研究開発 AIに潜むセキュリティリスクを分析する技術を開発 機械学習工学研究会(MLSE)より発行される機械学習システムセキュリティガイドラインで、開発した分析ツールを無償公開 近年、様々な分野でAIが利用されています。その一方で、AIを意図的に誤判断させたり、AIから訓練データやモデルの情報を盗み取ったりする、AI特有の攻撃の存在が指摘されています。これらの攻撃により、例えば自動運転のAIで運転の判断を誤ると交通事故を起こす可能性があります。また、AI開発者が労力をかけて構築したAIシステムが攻撃者の手元で複製され、攻撃者によって類似サービスを展開される恐れがあります。 そこで、AIに潜むセキュリティリスクをAIシステムの開発者自身が分析することができるツールを開発しました。脅威となる攻撃の種類や、それらの攻撃を引き起こす要因などを分析し、アタックツリーで可視化して表示するととも