Anthropic被美军列为“供应链风险”,AI伦理风暴席卷科技界
2026年3月5日,美国国防部突然宣布,将人工智能公司Anthropic及其核心产品Claude系列模型正式列入“供应链风险”名单。这不是普通的采购限制——这是美国政府首次将一家本土科技公司、而非外国对手,贴上这一标签。消息一出,硅谷震动,军方与科技伦理的冲突,彻底从幕后走向台前。
事情的导火索,是过去数周内五角大楼与Anthropic高管的多次闭门谈判。据多位知情人士透露,军方希望将Claude模型深度整合进Palantir Maven系统,用于中东战场的情报分析、目标识别,甚至未来可能的自动化武器决策。但Anthropic CEO达里奥·阿莫迪(Dario Amodei)明确拒绝:不用于监控美国公民,不用于无人类干预的致命武器系统。他坚持,“技术可以强大,但不能没有底线。”
而五角大楼的回应冷硬:私人企业无权定义军队如何使用技术。“我们不是在买软件,我们是在买国家安全能力。”一位不愿具名的国防部官员对《华尔街日报》表示。

禁令生效,美军作战系统面临“断供”危机
“供应链风险”一旦认定,后果远超舆论层面。根据美国联邦采购条例,任何与国防部签约的承包商必须彻底切断与被标记实体的技术往来。这意味着:美军在伊拉克、叙利亚、伊朗边境的多个情报中心,正依赖Claude模型处理卫星图像、通讯截获和战场态势图——这些系统,一夜之间成了“高危资产”。
据《防务新闻》援引内部备忘录,美军已启动紧急替代方案,但短期内难以找到功能相当的替代模型。一位匿名的前线技术官坦言:“我们不是用它写邮件,是用它在30秒内从十万张图片里找出敌方导弹发射架。换别的系统?至少要三个月,而且精度下降30%以上。”
更令人意外的是,Anthropic并非唯一被卷入的公司。谷歌DeepMind和Meta的AI团队也接到内部警告,要求重新评估与军方合作的边界。而OpenAI却迅速妥协,宣布与国防部签署“全用途授权协议”,允许其GPT模型用于“所有合法军事用途”。其总裁格雷格·布罗克曼更在3月12日向支持军方科技采购的游说团体“国家安全技术联盟”捐赠2500万美元。
员工抗议、舆论撕裂:科技公司的道德十字路口
OpenAI的“合作”并未换来掌声,反而点燃了内部风暴。超过400名员工联名签署公开信,谴责公司“出卖原则”,并要求董事会公开解释决策过程。一封内部邮件截图被泄露到社交媒体,其中写道:“我们建AI是为了帮助人,不是为了帮人更快地杀人。”
与此同时,阿莫迪公开指责五角大楼的决定“带有政治报复性质”。他暗示,自己曾拒绝为某些议员的竞选团队提供AI辅助宣传服务,而这些议员正是推动军方扩大AI权限的主力。尽管没有直接证据,但时间点的巧合让外界质疑:这究竟是安全考量,还是权力清算?
在国会山,两党议员开始激烈辩论。民主党议员艾莉森·李提出《AI伦理保护法案》,呼吁禁止军方使用未经独立伦理审查的AI系统;而共和党议员马克·哈蒙德则警告:“在对抗中国和俄罗斯的AI军备竞赛中,美国不能让硅谷的道德洁癖拖慢脚步。”
一场没有硝烟的战争,正在重塑科技的未来
这不是一次简单的合同纠纷。它标志着一个时代的转折:当AI成为战争机器的“大脑”,谁来决定它的边界?是工程师、CEO,还是五角大楼的将军?
如今,全球顶尖AI实验室正被推入两难:要么接受军方的条件,换取巨额合同和政治影响力;要么坚守伦理,承受被边缘化、失去市场准入的风险。Anthropic的选择,让许多科技从业者看到了另一种可能——但代价,可能是被排除在国家核心系统之外。
而在中东的沙漠里,美军士兵仍在盯着屏幕,等待AI给出下一个目标。只是这一次,他们知道,那个给出答案的系统,曾被自己的创造者拒绝。