OpenAI 与五角大楼达成秘密协议:AI 模型将进入军方最高机密网络
就在 Anthropic 因拒绝为美国国防部开发用于大规模监控和全自动杀伤系统的 AI 工具,被特朗普政府点名批评并切断所有政府合同后不到一周,OpenAI 突然宣布了一项重大合作——其最新 AI 模型将被部署在国防部的最高安全等级网络中,包括用于情报分析、作战规划和后勤调度的机密系统。
周五晚间,OpenAI 首席执行官萨姆·奥尔特曼在社交平台 X 上发布了一条简短但极具分量的声明:“我们已与国防部达成协议,允许我们的模型在分类网络中运行。前提是:人类必须始终掌控生死决策,且绝不能用于国内监控。”这条声明没有附带新闻稿,也没有召开记者会,却在华盛顿和硅谷同时引发震动。
“不妥协的底线”:OpenAI 的三大安全铁律
不同于外界对科技公司“向军方低头”的猜测,OpenAI 在内部会议中明确划出了三条不可逾越的红线,并已写入合同:
- 禁止国内监控:任何用于追踪美国公民、分析社交媒体行为或预测抗议活动的用途,一律被禁止。即便军方提出“反恐”或“国土安全”理由,OpenAI 也保留技术层面的拒绝权。
- 人类必须扣动扳机:所有涉及武力输出的系统——无论是无人机目标识别、导弹路径建议,还是战场态势推演——都必须由人类军官最终确认。AI 只能提供选项,不能下达命令。
- 技术护栏+现场驻点:OpenAI 将派出一支由安全工程师和伦理专家组成的常驻团队,进驻五角大楼的 AI 实验室,实时监控模型行为。他们有权在发现异常调用时立即切断访问权限,无需提前报批。
更关键的是,协议中有一条“沉默条款”:政府不得要求 OpenAI 修改模型的拒绝逻辑。换句话说,如果模型判断某项任务违反伦理或法律,它有权说“不”,而军方不能强迫它“再试一次”。
Anthropic 被封杀,OpenAI 却被接纳?背后是策略差异
一个月前,Anthropic 因公开拒绝与国防部合作开发“自主武器系统”而被特朗普在集会上怒斥为“左翼疯子”,随后被排除在所有联邦 AI 采购清单之外。其联合创始人达里奥·阿莫迪(Dario Amodei)曾公开表示:“我们不会为杀人机器写代码,哪怕它被称作‘国防创新’。”
相比之下,OpenAI 并未公开反对军方合作,而是选择“进入系统内部”——用技术手段守住底线。奥尔特曼在内部邮件中写道:“我们不能躲在道德高地等别人来问我们‘要不要合作’。我们要主动参与,确保规则由我们来定。”
这种“从内部改造”的策略,让 OpenAI 赢得了五角大楼的信任。一位匿名美军技术官员向《华尔街日报》透露:“他们不是来谈意识形态的,是来写代码的。而且他们愿意把工程师派到我们这儿,这不是作秀,是真干。”
员工哗然:60多名工程师联名抗议
然而,OpenAI 内部并非铁板一块。就在协议公布后24小时内,超过60名员工签署了一封内部公开信,标题是《我们不是军火商》。
信中写道:“我们加入 OpenAI 是因为相信 AI 能改善人类生活,而不是让它成为战争机器的加速器。即使有‘护栏’,一旦模型进入军事系统,它的使用边界就会被不断试探。Anthropic 选择退出,我们却选择加入——这真的对吗?”
一些员工甚至开始私下讨论是否要效仿 Google 前员工,发起“离职抗议”。有工程师在 Slack 群组中留言:“他们说‘人类负责’,可一旦系统被部署在战场上,谁来为‘误判’负责?是那个在阿富汗基地里点‘确认’的19岁士兵,还是我们这些写代码的人?”
华盛顿的算盘:AI 军备竞赛已悄然启动
这场合作远不止是两家公司与一个部门的交易。美国国防创新单位(DIU)已将 OpenAI 的协议作为“标准模板”,正向谷歌、微软、甲骨文等企业施压,要求它们“拿出类似方案”。
与此同时,中国和俄罗斯的 AI 军事化进展被五角大楼列为“最高优先级威胁”。一份泄露的 2025 年国防白皮书草案指出:“在 AI 辅助决策、情报处理和无人系统协同方面,我们已落后于对手 18 至 24 个月。”
OpenAI 的协议,某种程度上是美国政府在“技术自主”与“伦理控制”之间的一次豪赌——他们赌的是:只要让最顶尖的公司参与进来,就能在不牺牲安全的前提下,赢得这场 AI 军备竞赛。
未来已来:你我,都是这场博弈的旁观者
现在的问题不再是“AI 应不该用于军事”,而是“谁来定义它的边界”。
OpenAI 说他们守住了底线。但当模型被部署在无人机上,当它能识别出“可疑人员”并建议“优先打击”,当它在战争迷雾中给出“最优解”——人类的“最终决定”,是否还真的存在?
奥尔特曼说:“我们不是在为战争服务,我们是在防止最坏的情况发生。”
但那些签署抗议信的员工知道:一旦技术被嵌入战争机器,它的伦理边界,就再也不是代码能决定的了。