最新消息:关注人工智能 AI赋能新媒体运营

Anthropic误删8100个GitHub仓库以追回泄露代码

科技资讯 admin 浏览

Anthropic 源码泄露事件:一场误操作引发的代码地震

2026年4月1日,AI圈炸了锅。全球顶尖大模型公司Anthropic,因一次低级的技术失误,导致GitHub上超过8100个开源项目被强制下架。这不是黑客攻击,也不是商业间谍,而是一个工程师在更新Claude Code工具时,不小心把核心源码上传到了公开仓库——然后,代码像野火一样蔓延开来。

当天下午,一位名叫Alex Rivera的开发者在GitHub上发现了一个奇怪的仓库:文件名里夹着“claude-llm-core”和“api-key-override”,代码结构明显不是普通插件。他点开一看,里面竟有Anthropic自家大模型调用的内部接口、认证逻辑,甚至包含未公开的推理优化参数。他没敢动,但也没忍住——当晚,这个仓库就被 fork 了1700多次。Reddit、X(原Twitter)和Hacker News一夜之间刷屏:“他们把GPT-4的底层逻辑,白送了?”

Anthropic的法务团队反应极快,当天晚上就向GitHub提交了DMCA下架通知。可问题出在执行环节——系统误把所有包含“claude”“anthropic”“code”关键词的仓库全拉黑了,哪怕只是写了个“用Claude API做天气机器人”的教学项目,也一并消失。有人发现,连MIT的开源课程作业、德国一所大学的AI研究仓库、甚至一个叫“Claude-Theme-For-VSCode”的个人插件都被删了。

“我们犯了一个不可原谅的错误。”4月2日中午,Claude Code负责人Boris Cherny在公司内部邮件中写道,随后公开道歉。他承认,自动化清理工具没有做关键词过滤,也没有人工复核,直接触发了“全网扫荡”模式。到当天傍晚,Anthropic撤回了99%的下架请求。但已经太迟——8100个项目里,有超过3000个被开发者截图、镜像、备份,根本无法完全清除。

Claude2,Anthropic,人工智能,聊天机器人  克劳德

上市前的“黑天鹅”:合规漏洞比代码更危险

这件事最致命的,不是代码泄露了,而是它发生在Anthropic准备IPO的前夜。据《华尔街日报》援引知情人士称,公司原计划在2026年第二季度提交S-1文件,估值一度冲上450亿美元。而这次事件,让投资人集体皱眉。

“我们不是担心他们被抄了,”一位硅谷风投合伙人私下对媒体说,“我们担心的是:一个连自家源码都管不住的团队,怎么保证客户数据不被误传?怎么应对未来更严的AI监管?”

事实上,这已不是Anthropic第一次出岔子。2025年底,其内部测试版Claude 3.5曾被曝在对话中无意泄露了部分训练数据来源,引发学术界对数据合规的质疑。这次事件,更像是系统性管理失灵的爆发。

更讽刺的是,就在事件发酵的同一天,OpenAI刚宣布推出“CodeGuard”新功能——可自动检测并隔离AI生成代码中的敏感引用。而Anthropic,却还在用2023年的老旧自动化脚本。

开发者愤怒:我们不是盗版者,是受害者

受影响的不只是公司。GitHub上无数独立开发者、学生、小团队的项目一夜归零。有人在X上贴出截图:自己花了三个月写的“用Claude Code自动生成SQL”工具,被删前还收到了系统邮件:“您的仓库因侵犯版权被移除。”

“我连Anthropic的代码都没碰过,我只是用了他们的公开API,”一位来自波兰的开发者写道,“现在我的毕业设计没了,导师说没法交差。”

社区开始自发组织“代码抢救行动”。一个叫“SaveTheRepos”的Telegram群组聚集了超过5000名开发者,他们手动备份、重建镜像、上传到GitLab和Gitee。短短48小时内,超过6000个被删项目被重新托管。有人甚至把备份打包成ZIP,放在IPFS上,标题写着:“Anthropic的疏忽,是我们共同的遗产。”

后续:修复、反思,和一场无声的权力转移

截至4月5日,Anthropic已恢复了除1个主库和96个确认含泄露代码的分支外的所有项目。公司承诺将设立“开源合规审查组”,并开放API调用日志供开发者审计。但没人相信,一个连基础自动化都做不好的团队,真能一夜变成合规典范。

而真正改变的,是行业对AI工具的信任。过去,开发者觉得“用Claude写代码”是效率神器;现在,不少人开始问:“我写的代码,会不会哪天被当成‘侵权证据’删掉?”

这场事故没有赢家。Anthropic的声誉受损,开发者失去信任,而真正受益的,是那些早已悄悄搭建私有模型的公司——他们不再依赖公开工具,也不再相信“开源即安全”的神话。

代码可以重写,但信任,一旦崩塌,就再也拼不回来。