関連キーワード 人工知能 | サイバー攻撃 | セキュリティ 生成AI(人工知能)ツールの中核技術である大規模言語モデル(LLM)を巡り、さまざまなセキュリティリスクが指摘されている。2024年8月に米ラスベガスで開催された年次セキュリティカンファレンス「Black Hat USA 2024」で、NVIDIAの主席AI・ML(機械学習)セキュリティアーキテクト、リチャード・ハラング氏はLLMの脅威を説明した。同氏が注意を呼び掛ける、LLMを狙った「2大攻撃手法」とは何か。 「RAG」が危ない? LLMの2大脅威はこれだ 併せて読みたいお薦め記事 LLM(大規模言語モデル)を巡る脅威とは 「生成AIが攻撃を受ける」とはどういうこと? LLMの脅威“10選” 生成AIからデータが盗まれていることも……? LLMの10大脅威 間接プロンプトインジェクション ハラング氏はLLMを狙った攻撃手法の一