Claude 崩了,但没人能替代它
2026年3月2日凌晨,纽约时间6:40,Claude.ai 网站突然打不开,App弹出“服务暂时不可用”,连刚上线的Claude Code代码助手也卡在加载界面。用户在Reddit和X(原推特)上炸了锅:“我刚写到一半的论文没了!”“公司用它做财报分析,现在全停了。”
两小时后,服务恢复。Anthropic发了条简短公告:“因突发流量激增,系统超载,我们已扩容完成。”但没人信这只是技术问题——过去一周,免费用户暴涨60%,付费用户比去年10月翻了一倍。不是系统不行,是人太多了。
最讽刺的是,受影响的全是普通用户。企业客户通过API调用的服务几乎没波动。换句话说,当普通人在为写邮件发愁时,五角大楼、华尔街投行和硅谷初创公司,正悄无声息地用着同一个AI,稳得像台精密仪器。
白宫要封杀它,军方却离不开它
就在服务中断前48小时,《华尔街日报》爆出一条重磅消息:特朗普政府已下令,所有联邦机构立即停用Claude。理由?“这家公司价值观扭曲,是觉醒文化(Woke)的代言人。”
可就在同一天,一位匿名美军情报官员向《防务新闻》透露:“上周对伊朗无人机集群的拦截推演,90%的决策依据来自Claude 4.6的模拟输出。它比我们的人工分析快四倍,还从没出过误判。”
这不是第一次。早在2025年11月,中情局在抓捕委内瑞拉总统马杜罗的跨境行动中,就用Claude分析了17万条通讯记录,锁定其藏身地。军方内部代号“幽灵助手”——没人提名字,但人人都知道是谁。
冲突的根源,不在技术,而在底线。Anthropic CEO达里奥·阿莫迪(Dario Amodei)在内部备忘录里写得明白:“我们不会为了五亿美元的军方合同,放弃禁止全自动武器和大规模监控的红线。”
白宫想买的是“听话的AI”,而Anthropic卖的是“有原则的AI”。结果呢?军方一边骂着“政治正确”,一边悄悄把Claude集成进指挥系统;财政部用它做经济风险预测;FBI用它分析恐怖分子社交图谱——全靠它,不靠OpenAI。
“QuitGPT”运动,正在改变AI的用户版图
这场风暴的导火索,其实是推特上一场无声的叛逃。
2025年底,OpenAI与五角大楼达成“无限制合作”协议,允许其AI模型用于全自动武器系统、面部识别监控和战场决策支持。消息一出,数千名AI研究员、记者和程序员在X上发起#QuitGPT运动——“我不再用一个会帮美军杀人的AI。”
他们中的很多人,转头就注册了Claude。不是因为功能更强,而是因为“它敢说不”。一位加州大学的教授在帖子中写道:“我宁愿它卡两小时,也不愿它在战场上替我做决定。”
数据不会撒谎:2026年2月,Claude的月活用户突破1.2亿,首次超过ChatGPT。在德国、加拿大、日本等对AI伦理敏感的国家,它的市场份额已稳居第一。就连微软,也在悄悄把自家Copilot的底层模型,从GPT-4换成Claude 4.6——不是因为便宜,是因为客户要求。
一场风暴,照出AI时代的真正分野
Claude的宕机,像一面镜子。它照出了两个世界:
一个是白宫的权力游戏:AI必须服从命令,成为工具,越听话越好。
另一个是普通人的选择:我们愿意为一个会拒绝、会犹豫、有底线的AI买单。哪怕它偶尔卡顿,哪怕它不够“完美”。
达里奥·阿莫迪最近在一次闭门会议上说:“我们不是在和OpenAI竞争。我们是在和‘沉默的妥协’竞争。”
现在,全世界都在看:当技术足够强大,当用户足够清醒,一家公司,还能不能守住自己的底线?
答案,不在服务器里,而在每一个选择Claude而不是ChatGPT的人手里。