本ブログは「生成AIセキュリティ」シリーズの第4弾です。 これまで、画像生成AIのSafety FilterをBypassして不適切な画像を作成させる手法や、文章生成AIから機微情報を窃取する手法などを対策と共に解説してきました。 今回は、OpenAIが昨年公開したサービス「カスタムGPTs」にまつわるセキュリティ・リスクを取り上げます。カスタムGPTs(以下、GPTs)は、ChatGPT Plusのユーザが任意にGPTをカスタマイズし、特定の目的に特化したGPTを作成・公開することができるサービスです。このサービスは非常に有用ですが、GPTsを攻撃者が悪用することで、他ユーザを攻撃できることが海外の研究者らによって報告されています[1]。 そこで本ブログでは、「カスタムGPTsを悪用した攻撃と対策について」と題し、GPTsを悪用した攻撃手法と対策について解説します。本ブログが、GPTsの
![カスタムGPTsを悪用した攻撃と対策について | 調査研究/ブログ | 三井物産セキュアディレクション株式会社](https://cdn-ak-scissors.b.st-hatena.com/image/square/b8455b709bace40e9e5f78bb71778f6b07c0cb84/height=288;version=1;width=512/https%3A%2F%2Fwww.mbsd.jp%2F2024%2F02%2F26%2Fassets%2Fimages%2Fbad_gpt.png)