30多名AI顶尖员工联手发声:五角大楼不该给Anthropic贴“风险”标签
周一,一份由超过30名来自OpenAI和Google DeepMind的工程师、科学家和研究人员联合签署的“法庭之友”意见书,被正式提交至美国联邦法院。他们不是在为一家公司辩护,而是在为一个原则发声:技术公司有权决定自己的AI不被用于哪些用途,而政府不能用“供应链风险”这种带有敌对国家标签的手段,来惩罚拒绝配合的本土企业。
事情的导火索很简单:Anthropic拒绝让自己的AI模型被用于针对美国公民的大规模监控,或用于自动发射武器的系统。这不是什么激进立场——很多AI从业者认为,这是基本的伦理底线。但美国国防部的回应却让整个行业震惊:他们把Anthropic列入了“供应链风险企业”名单。这个标签,原本是用于中国、俄罗斯等所谓“外国敌对实体”的,现在却被用在了一家总部位于旧金山、由前OpenAI员工创立的美国公司身上。
更讽刺的是,就在Anthropic被贴上标签后不久,五角大楼立刻与OpenAI签署了新的合作协议。这一举动在OpenAI内部引发强烈反弹。多名员工私下表示:“我们刚在内部讨论过AI伦理,转头公司就和一个用‘黑名单’打压同行的机构合作?”一些员工甚至公开在社交媒体上质疑公司立场,称这种合作“与我们宣称的价值观背道而驰”。
签署这份法律文件的,包括Google DeepMind的首席科学家Jeff Dean——他被认为是全球AI领域最具影响力的人物之一。还有多位曾参与构建GPT、Gemini等大模型的核心成员。他们在文件中明确写道:“如果政府对合同条款不满意,可以终止合作,换一家供应商。但不能用‘风险’标签毁掉一家公司的声誉,逼它就范。”
他们担心的,不只是Anthropic一家的遭遇。如果政府可以随意给拒绝配合的AI公司贴上“国家安全威胁”的标签,那未来任何一家想在AI中设置安全边界的企业,都可能面临同样的打压。这不仅会寒了技术人才的心,更会让美国在AI创新上自断一臂——因为顶尖人才不会愿意为一个连基本伦理底线都不能尊重的系统工作。
文件还提到一个关键事实:目前美国没有一部法律明确界定“AI的合法用途”到底是什么。政府一边喊着“我们要主导AI未来”,一边又拒绝让开发者参与制定规则。结果就是,企业只能靠合同条款划红线,而政府却把这些红线当成“不服从”来惩罚。
这不是孤立事件。就在上周,超过150名AI从业者联名致信五角大楼,要求撤销对Anthropic的标签。他们来自斯坦福、MIT、加州大学伯克利分校,也来自Meta、Microsoft和Cohere。有人在信中写道:“我们不是反对政府使用AI,我们反对的是用恐惧和污名化来压制技术伦理。”
而五角大楼的回应至今含糊其辞。他们只说“必须确保AI用于合法目的”,却从未解释为何“拒绝监控公民”成了“非法”或“高风险”。外界普遍认为,这背后或许与军方对“AI辅助决策系统”的迫切需求有关——他们想要的是无条件可用的工具,而不是有道德约束的伙伴。
这场风波正在重塑美国AI产业的格局。越来越多员工开始意识到:他们工作的公司,正站在政府与伦理的夹缝中。选择沉默,可能换来短期利益;选择发声,却可能面临职业风险。但这一次,他们选择了后者。

行业震动:AI伦理,正从实验室走向法庭
这场诉讼,已经不只是Anthropic和国防部之间的合同纠纷。它正在成为美国科技史上一场关于“谁来定义技术边界”的关键战役。
在欧洲,AI法案已经明确禁止使用AI进行社会信用评分和实时生物识别监控。在中国,AI生成内容管理规定也要求企业对输出内容负责。但美国,至今没有一部联邦法律对AI的军事或执法用途设限。结果,五角大楼试图用行政手段填补这个空白——用“黑名单”代替立法。
这引发了科技界前所未有的分裂。一边是政府机构,认为“国家安全高于一切”;另一边是开发者,认为“没有伦理的AI,终将反噬社会”。而夹在中间的,是那些原本只想写代码、做研究的普通人。
一位不愿具名的OpenAI员工告诉《纽约时报》:“我们不是反政府。我们只是不想成为帮凶。如果有一天,我们的模型被用来锁定某个社区的居民,然后系统自动推送无人机打击目标——我们能说‘我只是写了个API’吗?”
目前,法院尚未对Anthropic的诉讼作出裁决。但这场风波已经产生了实际影响:至少两家大型国防承包商已公开表示,将重新评估与国防部合作的AI项目,担心被卷入政治风险。投资机构也开始关注AI公司的“伦理韧性”——不再只看技术参数,还要看它是否敢于说“不”。
这场官司的结果,可能决定未来十年美国AI的发展方向:是走向一个由军方主导、毫无制衡的“技术铁幕”,还是建立一个由开发者、公民社会和政府共同协商的透明框架?
答案,不在五角大楼的保密文件里,而在那些敢于站出来签名的30多名工程师的勇气中。