“不给后门,就被拉黑”:美国AI巨头Anthropic为何被政府盯上?
一场本该在保密会议室里进行的博弈,如今却搬上了联邦法庭的聚光灯下。美国AI公司Anthropic,这家由前OpenAI核心成员创立、估值超300亿美元的“AI独角兽”,因为拒绝向国防部开放其大模型的后台权限,被拜登政府列入“供应链风险”黑名单——成为第一家被如此对待的美国本土科技企业。
事情的起点,简单到令人意外。2023年底,五角大楼向Anthropic提出一项要求:希望获得对Claude模型的“无限制访问权”,理由是“用于国防相关合法用途”。听起来合理,但Anthropic CEO达里奥·阿莫代(Dario Amodei)回绝了。他公开表示:“我们不能允许政府在没有监督、没有透明度的情况下,直接操控我们的模型去监控公民、部署全自动武器系统。”这不是技术问题,是伦理底线。
三个月后,Anthropic的名字出现在一份国防部发布的“高风险供应商”名单中。这份名单原本用于限制中国、俄罗斯等“外国敌对势力”的技术产品进入美军采购体系。如今,它被首次用在一家总部位于旧金山、由美国人创办、接受美国风投、纳税在美国的公司身上。
“连坐”范围有多广?连国家艺术基金会都怕了
更让人震惊的,是这份行政命令的“波及面”。
法官Rita Lin在听证会上一针见血:“国防部完全可以简单地不再采购Claude,但他们选择的,是让整个生态系统对这家公司避而远之。”结果呢?国防承包商、州政府机构、甚至国家艺术基金会(NEA)都收到了内部警示:避免使用Anthropic的产品,以防“供应链风险”。
NEA的一名项目官员私下透露:“我们正用Claude设计一个面向退伍军人的艺术疗愈项目网站。现在我们不敢继续了。没人知道,用一个被‘拉黑’的工具,会不会被审计查出‘违规’。”
Anthropic在诉状中称,仅2024年上半年,因政策不确定性导致的客户流失和合同冻结,已造成超过2.3亿美元的潜在收入损失。更别说品牌声誉的崩塌——在硅谷,曾被视为“负责任AI”标杆的Anthropic,一夜之间成了“不听话就要被收拾”的活教材。
微软站队,硅谷集体沉默背后的恐慌
这场官司,早已不是Anthropic一家的战斗。
微软,作为Anthropic的主要投资方和云服务合作伙伴,罕见地向法院提交了正式支持信。信中明确警告:“如果政府可以仅凭‘潜在风险’就封杀一家美国公司,那下一个被点名的,可能是我们。”
谷歌、OpenAI、Meta的高管们虽未公开表态,但内部会议中频繁出现同一句话:“如果Anthropic倒了,我们还能撑多久?”
一位不愿具名的硅谷投资人告诉我:“我们投AI,是因为相信技术能独立发展。现在政府告诉你:‘你不能自己定规则,你得听我的’——那我们投的到底是什么?一个工具,还是一个政治附庸?”
这场官司,决定的是AI的未来:谁说了算?
这不是简单的“企业 vs 政府”纠纷。它触及一个根本问题:当AI成为国家基础设施的核心组件,谁拥有最终控制权?
过去,美国政府靠出口管制、芯片禁令对付外国对手。如今,它把同样的手段,用在了自家最顶尖的科技公司身上。而理由,是“国家安全”——一个可以无限延展、无需举证的模糊概念。
2024年6月,美国参议院情报委员会已开始筹备听证会,议题正是“AI公司拒绝政府访问请求的法律边界”。与此同时,至少三家州政府已开始研究是否效仿联邦,建立本地版“AI供应商黑名单”。
Anthropic的律师在法庭上问了一个简单却致命的问题:“如果一家公司拒绝交出密码,就是‘国家安全威胁’,那我们是否离‘数字专制’,只差一步?”
这场官司的结果,将决定未来十年,美国AI企业是成为国家的“技术臂膀”,还是依然保有作为独立创新主体的尊严。