这两年生成式AI应用迅速发展,已逐渐融入我们的日常生活。相关新技术也带来了新的安全风险。过去经常发布十大安全风险的非营利组织OWASP,自2023年8月起开始整理大型语言模型(LLM)的十大安全风险,去年底发布了最新2025版。随着许多应用聚焦于AI代理,OWASP现已发布AI代理的十大安全风险。
这十大安全风险中,前三大尤为突出。OWASP列为第一的是Agent Goal Hijack(代理目标劫持)。仅从字面难以直接理解其风险,OWASP解释称,这种风险源于攻击者操纵AI代理的自然语言输入,篡改其原始目标,导致数据泄露、输出结果被篡改,或工作流程被劫持。这确实是当前AI代理最常见的威胁之一。
排名第二和第三的威胁则相对容易理解:分别是工具滥用与漏洞利用(Tool Misuse and Exploitation),以及身份与权限滥用(Identity and Privilege Abuse)。这些威胁揭示了攻击者如何颠覆AI代理的能力及其背后的基础架构。涉及AI代理的安全威胁,已在各行各业中陆续显现。
对于OWASP从整理LLM安全风险转向AI代理风险的原因,主导整理这十大威胁的Tenable AI安全资深团队经理Keren Katz指出,许多企业已暴露在AI代理遭受攻击的风险下,却尚未充分意识到AI代理已在网络环境中运行的事实。由于新型威胁信息量庞大,要有效保护企业免受相关威胁,必须深入理解AI代理的运行机制。
OWASP在列出十大威胁的同时,还提供了一系列指导建议,内容涵盖AI安全治理、安全解决方案架构、安全AI代理应用实施指南,以及AI代理威胁与缓解手册等。
关于生成式AI带来的安全风险,近期不断有新的发现公布。例如,攻击者可通过看似礼貌的商业邮件,操纵浏览器Perplexity Comet的AI代理,删除受害者在Google Drive中存储的文件;Google近期修复的企业版Gemini零点击漏洞GeminiJack,攻击者仅需共享文件、发送日历邀请或发送Gmail邮件,即可窃取企业内部数据并外泄。在软件开发领域,攻击链IDEsaster与提示注入漏洞PromptPwnd,也与AI代理密切相关。