Anthropic 正式宣战:要告国防部,不卖AI给军方是原则,不是生意
周四,Anthropic 首席执行官达里奥·阿莫代伊(Dario Amodei)公开宣布,公司将对美国国防部将其列为“供应链风险实体”的决定提起法律诉讼。这不是一次普通的抗议,而是一场硬碰硬的对抗——他直言,这项认定“在法律上站不住脚”,而且根本经不起法庭检验。
事情的起因,是五角大楼在没有公开听证、没有具体证据的情况下,单方面给 Anthropic 贴上了“高风险”标签。这意味着,公司可能被禁止与陆军、空军、国防承包商等任何与国防部有合同的机构合作。而 Anthropic 的回应很干脆:我们不反对为国防服务,但前提是不能放弃底线。
阿莫代伊说,公司从成立第一天起就立下铁规:绝不开发或提供用于大规模监控、自动猎杀目标的AI系统。可国防部的要求却截然不同——他们想要的是“无限制访问权限”,能随时调用模型、修改参数、接入敏感数据,用于“所有合法用途”。问题在于,“合法”这个词,在军方语境里,往往意味着模糊地带。
“我们不是在拒绝合作,”阿莫代伊在内部信中写道,“我们是在拒绝被当成工具。”
影响有限,但信号强烈:普通用户不受影响,但行业风向变了
值得注意的是,这次认定主要卡住的是与陆军部有直接合同的项目,比如某些情报分析、后勤调度系统。对绝大多数企业客户、高校研究者、甚至州政府机构,Anthropic 的模型依然可用,API 服务照常运行。换句话说,普通用户和中小企业不会立刻感受到冲击。
但真正让人警惕的,是这个先例。如果一家公司因为坚持伦理边界就被贴上“安全风险”,那未来谁还敢对军方说“不”?硅谷的AI公司们正面临一个现实选择:是妥协换订单,还是守住原则丢市场?Anthropic 的举动,等于把这个问题甩到了公众面前。
阿莫代伊强调,根据《联邦采购条例》,政府若要限制企业参与供应链,必须采取“限制性最小”的手段。而目前的做法,是把整个公司一棍子打死,连带影响数百名员工和上千家合作方。“这不是安全审查,这是政治施压。”他说。
过渡期不甩手:模型照供,只收1美元
尽管要打官司,Anthropic 并没有切断与军方的联系。公司承诺,在法律程序结束前,将继续以“名义成本”——也就是象征性地收取1美元——为国防部关键项目提供模型支持,确保前线人员的工具不掉线。
一位不愿具名的五角大楼技术官员向《连线》透露,目前至少有三个正在运行的项目依赖 Anthropic 的Claude模型,包括战场态势感知系统和情报文本分析模块。“他们要是突然断供,我们得花六个月重新搭建,”他说,“但我们也清楚,他们不是怕麻烦,是怕失控。”
这种“一边打官司,一边送温暖”的做法,让外界评价两极:有人赞其“有底线也有担当”,也有人质疑这是“公关策略”。但阿莫代伊的态度很明确:“我们不是在求原谅,我们是在争取权利。”
道歉了,但没认错
就在几天前,一封泄露的内部邮件引爆舆论。邮件中,阿莫代伊曾称OpenAI与国防部的合作是“安全作秀”,暗指其“用伦理话术包装军售”。这封邮件被媒体广泛引用,舆论一度将Anthropic推上“双标”风口浪尖。
周四,阿莫代伊正式道歉:“那封邮件写于公司最焦虑的时刻——融资遇阻、团队压力巨大、外界误解不断。那不是我经过深思的立场,更不代表我对OpenAI的最终判断。”
但他没有收回自己的核心观点。他在后续采访中补充:“如果一家公司一边喊着‘AI伦理’,一边把模型卖给能自动识别平民面孔的监控系统,那它到底在做伦理,还是在做生意?”
这句话,没有被删。它被保留了下来,成为这场对抗的注脚。
接下来,法院见
目前,Anthropic 已聘请前联邦法官和国防法律专家组成团队,准备在联邦法院提起行政诉讼,要求撤销“供应链风险实体”标签。他们计划援引《行政程序法》和《第一修正案》中的言论自由原则,论证政府无权因企业拒绝特定用途而剥夺其商业权利。
这不是一场简单的商业纠纷。它关乎:谁来定义AI的“安全”?谁有权决定技术该为谁服务?当一家科技公司选择站在政府对立面,它还能活吗?
阿莫代伊最后说:“我们不是反军方。我们是反滥用。如果你真想用AI保护士兵,那就别逼我们变成武器的零件。”
这场官司,可能要打一年,甚至更久。但它的意义,早已超越了两家公司之间的争执。