Anthropic 被美国政府拉黑:AI 安全理想撞上军方铁墙
美国司法部近日在一份法庭文件中对 AI 初创公司 Anthropic 发出强硬警告:你不想让军方用你的AI?那你就别想拿政府的合同。这份文件不仅驳回了 Anthropic 关于“第一修正案权利受侵”的诉讼主张,更直白地指出——“在国防领域,道德立场不能替代信任。”
事情的导火索,是 Anthropic 为旗下大模型 Claude 设置了严格的使用边界:拒绝用于自主武器、拒绝用于大规模监控、拒绝为军方提供实时作战支持。这在业内被视作罕见的“AI伦理坚守”。但五角大楼不买账。去年底,特朗普政府下令将 Anthropic 列入“供应链风险企业”名单,直接切断其参与联邦采购的资格。
“不合作”等于“不可靠”?军方的逻辑
司法部在文件中毫不掩饰地表达了对 Anthropic 的不信任:“如果一家公司公开限制其技术在战场上的应用,我们如何能相信它会在关键时刻为国防系统提供稳定支持?”
这不是简单的商业分歧。美国国防部每年在AI项目上的投入超过50亿美元,其中近三分之一流向私营AI公司。Anthropic 曾是潜在竞标者,甚至参与过早期军方AI安全框架的讨论。但当它公开表态“不参与杀手机器人开发”后,沟通渠道迅速关闭。
一位匿名国防部顾问对《华尔街日报》表示:“我们不需要理想主义者,我们需要能打仗的工具。OpenAI 和 Google DeepMind 都知道怎么在红线内做事——他们没说‘不’,只是说‘我们有控制机制’。”
数十亿生意一夜蒸发,合作伙伴纷纷撤退
被贴上“风险”标签后,Anthropic 的商业噩梦才刚刚开始。
据知情人士透露,包括摩根士丹利、联合健康集团、以及多家国防承包商在内的至少七家大型客户已暂停或取消与 Anthropic 的合作。一位高管向《彭博社》透露:“我们原本预计今年能拿下30亿美元的政府与企业订单,现在可能连10%都拿不到。”
更致命的是,投资者信心动摇。据PitchBook数据,Anthropic 的最新一轮估值已从450亿美元回落至约320亿美元,跌幅近30%。多位风险投资人在内部会议中直言:“我们支持伦理,但不支持自杀式坚守。”
科技圈罕见站队:OpenAI 和谷歌员工悄悄支持 Anthropic
然而,这场对抗并非一边倒。就在司法部发布文件后不久,Google DeepMind 首席科学家 Jeff Dean 与 OpenAI 多名高级工程师联名提交法庭之友简报,支持 Anthropic 的立场。
这份由数十名技术专家签署的文件写道:“如果政府可以因为一家公司拒绝参与武器化AI而惩罚它,那未来谁还敢为AI设底线?我们不是在帮 Anthropic,我们是在保护整个行业的道德空间。”
讽刺的是,OpenAI 本身正为五角大楼测试其 GPT-4o 模型用于情报分析和后勤调度,而谷歌也通过其 AI for Defense 项目与国防部密切合作。但这两家公司从未公开拒绝过军事合作——他们只是把限制条款藏在了保密协议里。
一场关于“AI良心”的生死局
Anthropic 的创始人 Dario Amodei 曾是 OpenAI 的早期核心成员,他离开的原因之一就是“不愿让AI成为战争工具”。如今,他正带着这份信念,面对一场几乎不可能赢的官司。
但这场对抗的意义,早已超出一家公司生死。它逼着整个行业回答一个问题:当AI技术成为国家机器的一部分,技术公司是该当一个沉默的供应商,还是一个敢于说“不”的守门人?
在美国,一边是每年千亿级的国防预算,另一边是少数工程师不愿让算法决定谁该死。没有中间地带。而 Anthropic,正站在悬崖边。