最新消息:关注人工智能 AI赋能新媒体运营

Anthropic AI模型遭黑客攻击,安全机制受质疑

科技资讯 admin 浏览

Claude Mythos 被“猜中”入侵:Anthropic 的安全警钟

就在人们还在讨论 Anthropic 的 Claude 系列模型如何安全、可靠时,其尚未公开的顶级模型 Mythos,却被一群黑客悄无声息地攻破了。这不是什么高深的零日漏洞,也不是大规模的网络攻击——而是一次靠“猜”和“内部信息”完成的入侵。更讽刺的是,Mythos 之所以被秘密开发,正是因为它的能力太强,强到连 Anthropic 自己都觉得,一旦泄露,可能被用来反向攻击整个互联网安全体系。

据《彭博社》最新调查,早在 Anthropic 宣布将 Mythos 仅限少数合作企业测试的几周前,已有黑客组通过蛛丝马迹,锁定了模型的访问地址。他们并非技术大神,而是一群熟悉 AI 行业运作的人:有人曾为 Anthropic 做过合同评估,知道模型命名规则;有人从 Mercor 公司泄露的内部文档中,找到了类似模型的部署路径;还有人只是在论坛上闲逛,顺手试了几个“看起来像”的 URL——结果,真打开了。

“这不是黑客技术的胜利,是人类疏忽的失败。”英国皇家联合服务研究所(RUSI)安全研究员 Pia Hüsch 一针见血地指出,“公司总以为防火墙够厚,就能高枕无忧,但真正能撬开大门的,往往是一张被随手丢在桌上的门禁卡。”

“猜中”背后,是整个行业的侥幸心理

Anthropic 一向以“安全优先”自居,CEO Dario Amodei 多次公开强调“AI 不该被轻易释放”。但这次事件暴露了一个致命盲点:当一家公司把核心模型藏在“私有网络”里,却仍用类似公开 API 的命名方式(比如 mythos.anthropic.ai)时,它其实已经把钥匙放在了门口的地毯下。

有安全工程师私下透露,类似的情况并非孤例。过去一年,至少有三家 AI 初创公司因“测试环境未设密码”“域名拼写太直白”“内部人员用个人邮箱传密钥”等问题,导致模型被外泄。有人甚至用爬虫批量扫描“.ai”域名,只靠一个脚本就找到了十几个未授权的模型入口。

更令人不安的是,这次入侵没有造成数据外泄或恶意攻击。黑客只是“进去看了看”,甚至没下载模型。他们说:“我们只是想确认,传言是不是真的——它真有那么强?”

但问题恰恰在这里:如果一群“好奇者”都能轻松进入,那真正有恶意的人呢?如果他们不是来看热闹,而是来训练钓鱼机器人、伪造政府公文、生成定向诈骗内容呢?

AI 安全,不该只靠“不公开”

Anthropic 已紧急关闭访问入口,启动内部审计,并通知所有合作方重新审查权限。但外界更关心的是:为什么一个号称“为安全而生”的公司,会犯下如此基础的错误?

事实上,这不只是 Anthropic 的问题。整个 AI 行业都陷入了一种“技术迷信”:认为只要模型不发布、不开源、不对外暴露,就万无一失。但现实是,现代 AI 的部署越来越依赖云服务、第三方 API、自动化脚本——哪怕一个配置文件写错一行,都可能成为突破口。

MIT 的一项研究显示,2023 年全球有超过 40% 的 AI 模型访问端点,存在可被公开扫描发现的漏洞。其中近三成是“默认开放”或“弱密码”导致的。而这些,都不是技术难题,而是管理问题。

现在,Anthropic 必须回答:下一次,会不会是黑客直接下载了 Mythos,然后用它来反向破解银行系统?

给所有科技公司的提醒:别再把“低调”当安全

这次事件没有轰动,没有数据泄露,没有舆论风暴——但它的危险,恰恰在于它的“平淡”。它告诉我们:AI 安全的防线,不在代码里,而在人的习惯里。

如果你在开发一个“不能被公开”的模型:

  • 别用公司域名 + 模型名这种直白的地址
  • 别让内部员工用个人邮箱传密钥
  • 别以为“没人会猜到”就不用设密码
  • 别把“不发布”当成安全策略

真正的安全,不是藏起来,而是根本没人能碰得到。

Anthropic、克劳德