最新消息:关注人工智能 AI赋能新媒体运营

Anthropic一周两度泄露,安全人设崩塌

科技资讯 admin 浏览

Anthropic 惊天泄密:51 万行核心代码一夜曝光

一向以“安全可靠”为招牌的 AI 公司 Anthropic,最近接连翻车,让整个行业都傻了眼。上周刚被爆出内部 3000 份文件外流,这周又出大事——他们发布 Claude Code 2.1.88 时,因为打包脚本写错了,把整整 51.2 万行核心源码全扔到了 GitHub 上。

这不是黑客攻击,也不是系统被攻破,就是个普通工程师在打包时漏了关键一步:没加 .gitignore,也没做二次审核。结果,包含模型行为规则、工具调用限制、安全过滤逻辑的完整代码库,直接对全世界开放了。

短短 24 小时,GitHub 上就出现了十几个镜像仓库。有人连夜爬取,有人用 AI 工具逐行分析,甚至有独立开发者发帖说:“这代码结构比某些开源 LLM 还干净,难怪 Claude Code 写代码这么顺。”

OpenAI 关停 Sora,真因是被 Claude Code 打懵了?

就在 Anthropic 泄密的同一天,OpenAI 突然宣布暂停 Sora 的公开测试,理由是“资源重新分配”。外界一度以为是技术不成熟,但《华尔街日报》最新报道称,内部会议记录显示,Sora 被叫停的主因,是团队发现——Anthropic 的 Claude Code 已经在开发者圈子里悄悄抢走了风头。

“我们花了两年做视频生成,他们只用几个月,就做出一个让工程师主动放弃 Copilot 的工具。”一位 OpenAI 工程师匿名对媒体说,“不是功能比不过,是体验太不一样了。Claude Code 不是‘帮你写’,是‘懂你要什么’。”

泄露的代码里,藏着一套叫“Intent-aware Refactoring”的机制:它能根据开发者写注释的语气、修改历史、甚至光标停留时间,推测你下一步想改哪。这种深度理解,不是靠 API 调用堆出来的,是真把工程思维嵌进了模型里。

现在,连 GitHub 上的开源项目维护者都在讨论:“我们是不是该把 Claude Code 当作 CI/CD 的新标准?”

“最安全的 AI 公司”怎么连安装包都管不好?

Anthropic 曾以“AI 责任先锋”自居,创始人 Dario Amodei 多次在国会听证会上强调“安全优先于速度”。可这次,他们连最基本的发布流程都没守住。

一位前谷歌工程主管在推特上直言:“如果连一个内部工具的打包流程都靠人肉检查,那他们所谓的‘安全架构’,不过是PPT上的词。”

更讽刺的是,就在泄密前一周,Anthropic 刚刚和美国国防部签下一份价值数亿美元的合同,负责为军方开发“可审计、可解释”的AI系统。如今,连自家代码都守不住,谁还敢信他们能管好国防级模型?

目前,官方已紧急下架版本并发出道歉信,但为时已晚。泄露的代码里,有明确的“拒绝生成武器相关代码”的逻辑分支,也有绕过内容过滤的“边缘用例”测试集——这些细节,已经被安全研究员整理成报告,发给了 MITRE、OWASP 等多个开源安全组织。

程序员的狂欢,公司的噩梦

在 Reddit 的 r/MachineLearning 和 Hacker News 上,这场泄密成了年度热点。有人用泄露代码训练出本地版 Claude Code,跑在自家 RTX 4090 上;有人发现它能自动识别 Python 项目中的“技术债”,并推荐重构方案;还有人扒出它内置的“代码风格模仿器”——能按你的历史提交记录,写出和你一模一样的代码风格。

“这不是AI助手,这是你的影子程序员。”一位来自柏林的全栈开发者写道。

但狂欢背后,是巨大的隐患。有安全公司警告,这些代码里藏着未公开的 API 密钥模板、内部调试接口、甚至旧版模型的后门测试路径。虽然 Anthropic 已联系 GitHub 下架,但代码早已被镜像到暗网和私有仓库。

现在,没人再谈“Anthropic 是最安全的AI公司”了。他们不再是那个躲在实验室里小心翼翼的“AI修道士”,而是一个高速奔跑、却忘了锁门的巨人。

2026 年的 AI 战场,拼的不是模型参数,而是工程纪律。当代码规模突破十万行,靠热情和天才工程师的直觉,早就撑不住了。Anthropic 需要的不是道歉,是一套真正的 DevSecOps 流程——从提交、测试、打包到发布,每一步都得自动化、可追溯、有复核。

否则,下一次泄露的,可能就不只是代码了。