最新消息:关注人工智能 AI赋能新媒体运营

谷歌与五角大楼签署新协议 加速AI军事应用

科技资讯 admin 浏览

Google牵手五角大楼:AI军用大门打开,员工抗议声浪高涨

近日,谷歌与美国国防部正式签署一项秘密协议,允许军方在其高度保密的网络环境中接入谷歌的人工智能工具。这一合作旨在提升情报分析、战场态势感知和作战决策支持能力,标志着美国防务体系在AI应用上再添重要一环。

这次合作的直接导火索,是另一家AI公司Anthropic拒绝了五角大楼的请求。美方希望Anthropic的模型能用于国内监控、无人机自动目标识别,甚至未来可能的自主武器系统——这些用途被Anthropic视为严重违背其“不作恶”的技术伦理准则。该公司坚持要求合同中加入明确的“使用禁区”,但五角大楼拒绝让步。最终,Anthropic不仅被排除在合同之外,还被国防部列入“供应链风险”名单——这个名单通常只用于标注来自中国、俄罗斯等所谓“外国对手”的企业。

Anthropic随后提起诉讼,联邦法院已发出临时禁令,阻止国防部继续将其列入风险名单。这一事件在科技圈引发巨大震动,也让其他AI公司看到了机会。

谁在填补空白?OpenAI、xAI、Google接连入局

就在Anthropic被拒后不久,OpenAI率先与国防部达成合作,随后埃隆·马斯克旗下的xAI也紧随其后。如今,谷歌成为第三家与美军建立深度AI合作关系的科技巨头。据《华尔街日报》披露,谷歌的协议虽包含“不打算将AI用于国内监控或自主武器”的措辞,但这一表述仅为公司单方面声明,不具备法律约束力,也无独立监督机制。

相比之下,OpenAI和xAI的合同条款也类似,均未设立可执行的审计流程或违规处罚机制。这意味着,一旦AI系统被部署到战场或情报系统中,其实际用途将完全由军方掌控,科技公司事后难以干预。

950名员工联名反对:我们不是武器制造商

谷歌内部的反对声音比外界想象的更强烈。据内部消息,已有超过950名员工签署公开信,要求公司暂停与国防部的合作,直到建立“具有法律效力的使用边界”和“第三方监督机制”。信中写道:“我们开发AI是为了服务人类,而不是为了加速战争或监控本国公民。”

这些员工中,不乏参与过谷歌核心AI项目的核心工程师、数据科学家和产品经理。他们担心,公司此次妥协将打开潘多拉魔盒——一旦AI被用于战场目标识别,哪怕只是“辅助决策”,未来也可能演变为自动杀伤系统。

面对舆论压力,谷歌至今未发布任何官方回应。公司高层既未公开支持员工,也未解释为何在Anthropic拒绝后迅速转向军方。有知情人士透露,内部会议中,部分高管认为“这是国家需求,不能因道德顾虑错失机会”,但也有员工表示:“如果我们连底线都放弃,那我们做的AI,和军工复合体还有什么区别?”

军方为何急着“抢AI”?背后是实战化部署的紧迫性

美国国防部近年来正加速推进“AI战争”转型。2023年,国防创新单元(DIU)已部署超过300个AI项目,涵盖从无人机群协同、卫星图像识别到后勤补给预测等多个领域。2024年,美军在太平洋地区测试了由AI辅助的“决策周期压缩系统”,将情报处理时间从数小时缩短至几分钟。

而中国、俄罗斯也在同步推进军用AI研发。据美国国会研究服务处(CRS)报告,中国已部署AI驱动的边境监控网络,并在演习中测试了AI辅助的防空系统。美国军方高层多次公开表示:“如果我们不尽快部署,未来十年的战场主动权将不再属于我们。”

在这种背景下,五角大楼不再等待“完美方案”,而是选择“能用就先用”。谷歌的Gemini模型、OpenAI的GPT系列、xAI的Grok,都成为其快速整合的工具。但问题在于:谁来为这些工具的误用、滥用来负责?

没有护栏的AI,正在进入战场

这不只是谷歌的困境,更是整个科技行业的十字路口。

当一家公司拥有能识别战场目标的视觉模型,能预测敌方补给路线的预测系统,能自动生成作战简报的语言模型——它是否还只是“技术提供商”?还是已成为战争机器的一部分?

Anthropic选择拒绝,付出了商业代价;谷歌选择合作,引发了内部叛离;OpenAI和xAI则在沉默中推进。而公众,几乎无从得知这些AI系统在哪些真实任务中被使用,又是否曾导致误判、误伤。

一张图片,一张合同,950个签名,背后是技术伦理与国家安全之间从未如此尖锐的碰撞。科技公司不再只是卖软件的,它们正在成为战争的基础设施。而这场战争,没有硝烟,却可能决定未来几十年的全球权力格局。

image.png