エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
AIに潜むセキュリティリスクを分析する技術を開発 機械学習工学研究会(MLSE)より発行される機械学習システムセキュリティガイドラインで、開発した分析ツールを無償公開 : 富士通
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
AIに潜むセキュリティリスクを分析する技術を開発 機械学習工学研究会(MLSE)より発行される機械学習システムセキュリティガイドラインで、開発した分析ツールを無償公開 : 富士通
ホーム 研究開発 AIに潜むセキュリティリスクを分析する技術を開発 機械学習工学研究会(MLSE)より発行... ホーム 研究開発 AIに潜むセキュリティリスクを分析する技術を開発 機械学習工学研究会(MLSE)より発行される機械学習システムセキュリティガイドラインで、開発した分析ツールを無償公開 近年、様々な分野でAIが利用されています。その一方で、AIを意図的に誤判断させたり、AIから訓練データやモデルの情報を盗み取ったりする、AI特有の攻撃の存在が指摘されています。これらの攻撃により、例えば自動運転のAIで運転の判断を誤ると交通事故を起こす可能性があります。また、AI開発者が労力をかけて構築したAIシステムが攻撃者の手元で複製され、攻撃者によって類似サービスを展開される恐れがあります。 そこで、AIに潜むセキュリティリスクをAIシステムの開発者自身が分析することができるツールを開発しました。脅威となる攻撃の種類や、それらの攻撃を引き起こす要因などを分析し、アタックツリーで可視化して表示するととも
2022/07/04 リンク