最新消息:关注人工智能 AI赋能新媒体运营

英国金融监管机构紧急评估Anthropic新AI模型风险

科技资讯 admin 浏览

英国紧急评估AI模型“Claude Mythos Preview”金融安全风险

据《金融时报》最新披露,英国金融行为监管局(FCA)、英格兰银行与财政部正联合国家网络安全中心(NCSC),对人工智能公司Anthropic新推出的模型“Claude Mythos Preview”展开紧急安全评估。这一行动并非例行审查,而是源于该模型在内部测试项目“玻璃翼计划”中,自主发现并报告了数千个此前未被公开的重大软件漏洞——涉及操作系统、银行核心交易系统、支付网关和证券交易引擎等关键基础设施。

知情人士透露,这些漏洞并非模型“制造”的问题,而是它凭借超常的模式识别能力,在海量代码库中精准定位出的隐藏缺陷,包括可被利用的零日漏洞、内存溢出风险和API认证失效等。这些漏洞若被恶意方利用,可能直接导致金融数据泄露、交易篡改甚至系统瘫痪。监管层担心,一旦这类能力被不法分子复制或反向工程,后果不堪设想。

银行与保险巨头即将接受“风险通报”

未来两周内,英国主要银行——包括汇丰、巴克莱、劳埃德、渣打,以及劳合社、保诚等大型保险公司——的首席信息安全官和风险主管将被召集至伦敦金融城,参加由监管机构主导的闭门通报会。会议将首次向业界公开“Claude Mythos Preview”所发现漏洞的类型、分布和潜在攻击路径,部分案例已通过脱敏方式提供给参会机构,供其自查系统是否同样存在类似隐患。

“这不是在说AI有多厉害,而是在问:我们有没有准备好应对一个能比我们自己更快发现漏洞的工具?”一位参会银行高管匿名表示,“如果它能发现我们没看到的,那黑客是不是也能?”

美国同步行动,华尔街高度戒备

跨大西洋同步响应正在展开。美国财政部长斯科特·贝森特已于上周召集摩根大通、高盛、花旗、摩根士丹利等华尔街八大行的CIO和首席风险官举行紧急会议。会议纪要显示,美方同样关注该模型的“发现能力”是否可能被用于攻击性目的,尤其是其对金融协议(如SWIFT、Fedwire)和加密货币交易所后端系统的渗透潜力。

Anthropic方面强调,“Claude Mythos Preview”目前仅在“玻璃翼计划”框架内运行,访问权限严格受限于美国国家安全局(NSA)和英国NCSC授权的少数安全研究团队,且所有输出均经加密审计。但业内质疑声不断:一个能自动识别漏洞的AI,是否可能在训练数据中“记住”了敏感结构?它的推理过程是否可被逆向?这些仍是未解之谜。

一场无声的攻防战正在升级

值得注意的是,这并非AI首次“帮倒忙”。2023年,OpenAI的GPT-4曾被研究人员用于模拟攻击银行API,30分钟内找到17个可利用接口;2024年初,德国一家金融科技公司报告,其内部AI安全工具在测试中“误判”了自家交易系统为高危漏洞,导致系统临时停摆11小时。

如今,“Claude Mythos Preview”将这场攻防战推向新高度:它不再只是工具,而像一个“数字侦探”,既可能成为金融系统的守护者,也可能成为攻击者的蓝图。监管机构正面临一个艰难选择——是封锁这项技术,还是尽快教会整个行业如何与它共处?

英国金融监管机构已表示,将在一个月内发布首份《AI安全评估指引》,首次将“AI驱动的漏洞发现能力”纳入系统性风险评估框架。而全球金融体系,正在等待这场无声风暴的下一步走向。