AI工具的广泛使用,也引发了研究人员对相关安全弱点的关注。多家安全公司已发现并披露多种安全漏洞与攻击链。近期,有安全公司发现多个漏洞,并指出这些漏洞可被串联形成完整的攻击流程。
安全公司Oasis Security披露了一种名为“Claudy Day”的攻击手法,指出攻击者可结合三种漏洞,在无需使用恶意软件或钓鱼邮件的情况下,直接窃取用户在Claude上的对话内容。该攻击链融合了三项弱点:隐蔽式提示注入、Files API滥用,以及claude.com网站的开放式重定向漏洞,构成完整的数据泄露流程。Oasis Security强调,攻击者无需借助其他工具或MCP服务器,也无需进行任何集成工作,即可直接对已登录的Claude.ai会话进行对话内容窃取。对此,Anthropic在接到通报后,修复了提示注入问题,其余两个漏洞仍在修复中。
在利用Claudy Day的攻击流程中,攻击者可通过搜索引擎广告或伪装链接,诱导用户点击预先嵌入恶意提示的网址。该网址中的恶意指令被隐藏在HTML标签中,用户在界面上无法察觉,但实际发送至AI模型时会被完整执行。
一旦提示注入成功,攻击者即可操控AI助手执行后续操作。研究显示,攻击者会利用Anthropic的Files API,将用户的对话记录打包并上传至攻击者控制的账户,从而实现数据泄露。
此外,该攻击链还利用了claude.com的开放式重定向机制,使攻击者能够通过合法域名跳转至恶意页面,进一步绕过安全防护,并降低用户察觉异常的可能性。
该攻击之所以能得逞,原因之一在于用户看到的提示内容与实际传入AI模型的内容不一致,导致AI系统在用户不知情的情况下执行了恶意指令。
类似利用AI与用户认知差异的攻击手法,近期也有其他安全公司披露相关发现。安全公司LayerX揭露了一种名为“Poisoned Typeface”的攻击手法,攻击者仅需在网页中使用自定义字体与CSS样式表,即可让ChatGPT、Claude、Gemini等AI助手误判网页安全性,进而诱骗用户执行恶意指令。