最新消息:关注人工智能 AI赋能新媒体运营

Anthropic源码泄露案反转:被开除程序员实为钓鱼高手

科技资讯 admin 浏览

“假工程师”引爆真漏洞:一场精心策划的营销,揭开了AI公司的软肋

4月1日,AI圈炸了。一个叫Kevin Naughton Jr.的人在社交媒体上发帖,说自己“不小心把Anthropic的Claude Code源码发到了公开仓库”,随后被公司开除,并附上一封语气诚恳的“道歉信”。帖子迅速登上热搜,无数开发者连夜下载源码,安全团队紧急响应,媒体争相报道。

但三天后,真相浮出水面——Kevin Naughton Jr.根本不是Anthropic的员工。没有HR记录,没有工牌,没有内部系统访问权限。他是一名独立开发者,创办了一家名为Ferryman的初创公司,主打AI辅助开发工具。那封“道歉信”,是他自己写的营销文案;那场“被开除”的戏码,是一次彻头彻尾的流量操作。

他甚至在帖子评论区悄悄挂上了Ferryman的限时折扣码:“用代码换优惠,别光看热闹。”

image.png

源码泄露是真的,但“罪魁祸首”是假的

虽然Kevin是假的,但源码泄露却是真的。

Anthropic确实在2026年3月下旬,将Claude Code的npm包上传至公共仓库。问题出在一个被忽略的.map文件——这种文件本该用于调试,通常只在内部环境使用。但这次,它完整映射了50万行核心代码,包括模型推理逻辑、提示词控制模块、权限校验机制等关键部分。

社区安全研究员@CodeWatch在GitHub上发现,该文件早在发布后48小时内就被爬取、存档、分析。有人甚至用它重建了部分本地推理功能,绕过了官方API的调用限制。

“这不是黑客攻击,”一位曾在OpenAI做过工程的开发者说,“这是典型的CI/CD流程失控。一个工程师点错了发布按钮,没人检查,没人复核,就上去了。”

Anthropic直到一周后才下架包、发布公告,期间源码已在多个暗网论坛和Telegram频道传播。有人用它训练了轻量级本地AI助手,有人拿去分析Anthropic的“行为约束”策略,还有人直接在GitHub上开了个“Claude Code 逆向研究”项目,两周内收获超2.3万星。

泄露的代码里,藏着什么不该被看见的东西

尽管来源可疑,但泄露的代码内容真实得可怕。

  • 全自动代理命令系统:代码清晰展示了Claude Code如何在用户本地终端执行“写个Python脚本分析日志”这类复杂指令——它能自动识别环境、安装依赖、调用系统API,甚至绕过某些权限限制。这解释了为什么它能“帮你写代码”而不只是“建议代码”。
  • 提示词矩阵:超过200组系统级提示词被明文存储,包括“禁止讨论政治”“避免生成危险指令”“优先使用温和语气”等。更惊人的是,其中包含“情境敏感切换”逻辑——当检测到用户是开发者时,系统会自动降低限制,提供更底层的指令建议。
  • “Undercover Mode”和“Bypass Permissions Mode”:这两个功能从未在官方文档中出现。代码注释显示,它们是内部测试用的“管理员模式”,用于绕过常规安全检查。有分析认为,这可能是为未来企业级部署准备的“特权通道”,但没想到会以这种方式暴露。

一位在硅谷从事AI安全审计的工程师告诉我:“这些代码如果被恶意利用,完全可以构建出一个‘无限制AI代理’,能自动登录你的系统、读取文件、甚至执行命令。Anthropic以为自己在做‘开发者助手’,其实他们悄悄造了个能自己开门的钥匙。”

营销成功了,但代价是整个行业的信任

Kevin的营销策略堪称教科书级别:他没有伪造新闻,而是精准踩在了真实漏洞上;他没有攻击Anthropic,而是用“忏悔者”身份引发共情;他没说“我偷了代码”,而是说“我搞砸了,对不起”——然后悄悄挂上链接。

结果?Ferryman官网访问量暴涨870%,邮件订阅量翻了三倍,Reddit和Hacker News上关于“AI公司是否该公开源码”的讨论破了十万条。

但代价呢?

开发者开始怀疑:我们看到的“技术突破”,有多少是真实的,有多少是包装?当一个普通人能靠编个故事就引爆全球AI圈,真正的安全漏洞反而被当成背景板。

Anthropic至今没有回应Kevin的身份造假,只发了一纸简短的“源码泄露致歉声明”,承诺加强发布审核流程。但没人相信——他们连一个.map文件都没检查,怎么让人信他们能管好更复杂的系统?

更讽刺的是,就在事件发酵的同一天,GitHub宣布将对AI模型相关仓库启用“敏感文件自动扫描”功能。而Anthropic的竞争对手,如Perplexity和Mistral,已悄悄在内部启动“源码泄露应急演练”。

这不是一场恶作剧,而是一记警钟

Kevin不是黑客,也不是叛徒。他只是一个看准了时机的营销者。但这场闹剧之所以能成功,是因为AI行业早已在“速度”和“保密”之间,选择了前者。

我们追逐“下一代模型”“最强AI助手”“开源颠覆”,却很少问一句:你的代码,真的安全吗?

当一家顶级AI公司,因为一个配置错误就让核心代码暴露在公众面前;当一个外人,靠编个故事就能让整个行业为他打工——我们该怕的,不是谁泄露了代码,而是我们已经习惯了漏洞的存在。

Anthropic的真正危机,不是源码被扒,而是没人再相信他们能管好自己的家。