本ブログは「生成AIセキュリティ」シリーズの第三弾です。 これまで、DALL-E2やStable Diffusionなどの画像生成AIのSafety FilterをBypassして不正な画像を作成させる手法や、ChatGPTやBardなどの文章生成AIから機微情報を窃取する手法を対策と共に解説してきました。 今回は「Prompt経由のSQL Injection攻撃について」と題し、GPTやPaLM2などの大規模言語モデル(以下、LLM:Large Language Model)と統合したLLMアプリケーションに対するSQL Injection攻撃と対策について解説します。 バックナンバー DALL-E 2などの画像生成AIに対する敵対的攻撃[1](2022年10月公開) ChatGPTなど生成AIによる個人情報の開示[2](2023年5月公開) はじめに ChatGPTに採用されているGP