当AI公司拒绝当“武器供应商”:一场硅谷内部的道德起义
最近,一场悄无声息却影响深远的对抗正在硅谷上演。Anthropic——这家由前OpenAI核心成员创立的AI公司,因拒绝向美国国防部提供“无限制使用”的人工智能技术,被政府威胁列入“供应链风险企业”名单。这意味着,它可能被排除在联邦合同之外,失去数以十亿计的政府订单,甚至影响其融资能力。
但真正让人震惊的,不是政府的施压,而是科技圈的反应。超过300名谷歌员工,加上60多位OpenAI员工,自发联名写了一封公开信。他们不是在抗议裁员,也不是要求加薪,而是在呼吁自己的老板:别跟军方合作开发自动杀人机器。
这封信没有华丽辞藻,只有直白的底线:“我们不会参与能自主决定谁该死的系统。”信中还点破了五角大楼的算盘——他们故意在谷歌、OpenAI、Anthropic之间制造竞争,暗示:“你不干,别人干。”可现在,这些原本互相挖角、抢人才、争融资的公司员工,却罕见地站到了同一阵线。
“别想用恐惧分化我们”
信里有一句话,被广泛转发:“当你知道对手在做什么,你就没法被恐吓。”
过去几年,谷歌曾因“Project Maven”(军方AI图像识别项目)遭到员工大规模抗议,最终被迫退出;OpenAI虽名义上是“非营利”,但其商业伙伴微软与军方关系密切,外界一直质疑其“道德墙”是否真能挡住军用渗透;Anthropic则从成立之初就公开宣称“AI安全高于商业利益”,甚至拒绝了多家军方接触。
这次,基层员工不再沉默。他们知道,如果今天让AI用于无人机自动识别目标,明天就可能是城市监控系统自动标记“可疑人群”。他们不反对技术为国防服务——比如用于后勤调度或情报分析——但他们坚决反对“无人类干预的致命决策”。
信中特别提到:“我们不是反军方,我们是反自动化杀戮。”这句话,成了这场运动的标语。
高管们沉默,但风向在变
OpenAI CEO萨姆·奥尔特曼曾在采访中说:“我们和Anthropic在红线问题上立场一致。”但他从未公开拒绝过任何军方合作,也从未阻止微软与五角大楼的其他AI项目。他的团队仍在为美军提供语音识别和语言模型支持——只是不直接参与武器系统。
Anthropic的态度最硬。公司CEO达里奥·阿莫迪(Dario Amodei)在内部邮件中说:“我们没收到正式合同,也没打算签。如果他们想用行政手段惩罚我们,那就去法院见。”他们甚至开始准备法律团队,应对可能的“黑名单”指控。
谷歌的沉默最耐人寻味。员工联名信发出后,公司高层至今未作任何公开回应。但内部消息透露,谷歌云部门正悄悄评估是否继续参与国防部的“Project Nimbus”(一项价值100亿美元的AI云服务合同)。一些员工已开始私下组织“道德审查小组”,要求所有军方项目必须经过员工投票。
更值得注意的是,就在上周,前谷歌AI伦理研究员、现为独立研究者的Timnit Gebru在《纽约时报》撰文:“这不是技术问题,是权力问题。当公司把道德交给法务部,而不是员工,灾难就迟早发生。”
全球AI公司开始划线
这场风波已超出美国边界。欧盟正在起草《AI法案》,明确禁止“自主致命武器系统”;加拿大、澳大利亚的科技从业者也陆续发声支持;就连中国的一些AI公司,也在内部政策中加入了“不参与军事化应用”的条款——尽管外界很少报道。
而真正改变游戏规则的,是投资者。据《华尔街日报》最新调查,超过40家风险投资机构已签署“AI伦理投资准则”,承诺不再资助任何涉及自主武器的AI初创公司。Anthropic在去年获得的30亿美元融资中,有近一半来自这类机构。
技术没有善恶,但使用它的人有。
现在,决定AI未来方向的,不再是CEO的PPT,而是那些在凌晨改代码、写论文、做测试的普通工程师。他们用一封联名信,重新定义了“科技公司”的责任。