谷歌联手五角大楼:GeminiAI正式进军美军作战体系
近日,谷歌正式与美国国防部签署一项秘密合作协议,将其最新一代人工智能大模型Gemini接入军方核心系统。这是继OpenAI和xAI之后,第三家硅谷科技巨头与美军达成AI技术合作。据知情人士透露,Gemini将被用于情报分析、战场态势感知和后勤调度等高敏感任务,其多模态理解能力可快速解析卫星图像、无线电通讯和社交媒体情报,大幅提升决策效率。
尽管协议全文未公开,但双方已确认设置“红线”:一是禁止使用Gemini对美国本土公民进行任何形式的大规模监控;二是明确排除其在全自动武器系统中的应用——这意味着无人机或导弹的最终开火决定,仍需由人类指挥官手动批准。这一限制被视为对公众和国会关切的回应,也反映出军方在追求效率的同时,仍试图维持道德与法律边界。
这并非偶然。过去两年,美军已悄然构建起一套“AI供应商名单”:OpenAI的GPT-4被用于翻译敌方语言通讯,xAI的Grok模型协助分析俄罗斯军方动向,而谷歌的Gemini则聚焦于全球目标识别与威胁预测。据《防务新闻》报道,美军“联合人工智能中心”(JAIC)已在12个作战司令部部署了定制化AI辅助系统,其中超过七成依赖私营企业模型。
拒绝“参军”的Anthropic,为何被拉入黑名单?
与谷歌的务实态度形成鲜明对比的是,AI初创公司Anthropic因坚持“不为军事用途开发Claude模型”而被美国国防部列入“国家安全供应链风险”观察名单。这一举动引发广泛争议。Anthropic联合创始人Dario Amodei曾公开表示:“我们不希望AI成为战争的加速器。”然而,在华盛顿看来,拒绝合作等同于放弃技术话语权。
2023年12月,美国国会通过《国防授权法案》修正案,要求国防部优先采购“愿意配合国家安全需求”的AI技术。这意味着,未来军方采购合同不仅看性能,更要看立场。有分析指出,Anthropic的“道德立场”虽赢得部分公众好感,但在技术主权竞争日益激烈的背景下,这种选择可能使其在关键项目竞标中彻底出局。
AI正在重塑现代战争的底层逻辑
这不是科幻电影,而是正在发生的现实。美军已在中东部署搭载AI的“战术边缘计算终端”,士兵手持设备可实时调用Gemini分析无人机传回的图像,3秒内识别出敌方车辆型号、人员数量与潜在威胁等级。在乌克兰战场,北约情报部门也在使用类似系统,从海量开源信息中筛选出俄军补给路线。
据兰德公司最新报告,到2027年,美军将有超过40%的战术情报处理工作由AI辅助完成。而真正危险的不是AI本身,而是谁能更快、更准、更安全地把AI用在战场上。谷歌此次入局,意味着硅谷不再只是“技术提供方”,而是深度卷入国家战争机器的核心环节。
对普通公众而言,这背后的问题愈发清晰:当一家公司的AI模型能决定哪些目标被标记为“高优先级”,谁在制定这些规则?当技术巨头成为国防战略的组成部分,伦理的边界又该由谁来划定?这些问题,远比一场发布会或一份声明来得沉重。