最新消息:关注人工智能 AI赋能新媒体运营

Anthropic起诉美国政府:Claude被五角大楼列入黑名单

科技资讯 admin 浏览

从五角大楼的宠儿到“国家安全威胁”:Anthropic为何被特朗普政府“拉黑”?

2024年3月9日,一家名叫Anthropic的AI初创公司,在加州联邦法院向美国政府提起诉讼——理由是被特朗普政府无端列入“供应链风险名单”。这不是普通的商业纠纷,而是一场关乎技术自由、军事伦理与政治权力的正面碰撞。

就在一年前,Anthropic的AI模型Claude还是美国国防部最信赖的“数字参谋”。它是唯一被允许接入机密军事网络的AI系统,甚至被内部人士透露,曾协助分析敌方通信模式、评估打击目标的潜在平民伤亡风险。军方高层曾公开称赞它“比人类更快、更冷静”。

可如今,一切都变了。

“我们不卖武器,他们却说我们是敌人”

矛盾的引爆点,是一份合同的续签谈判。五角大楼要求获得对Claude模型的“完全控制权”——包括绕过任何安全限制、直接调用其生成作战方案的能力。而Anthropic的回应是:我们愿意合作,但必须签署书面承诺,禁止将我们的技术用于全自动杀伤系统,也禁止用于对美国公民的大规模监控。

这不是“道德洁癖”。这是Anthropic联合创始人Dario Amodei在2021年就定下的底线。他曾是OpenAI的早期核心成员,亲历了AI失控的早期风险。他多次在内部会议中说:“如果我们连底线都不要,那和卖枪给恐怖分子有什么区别?”

五角大楼没接受。2024年2月,一份内部备忘录悄然下发:Anthropic被列为“供应链高风险实体”。这意味着,所有与国防部有合同的承包商——包括洛克希德·马丁、雷神、波音——都必须立即停止使用Claude,否则将面临合同终止和罚款。

更讽刺的是,这个标签,过去只用于华为、中芯国际这类被认定为“国家威胁”的外国企业。而现在,一家硅谷AI公司,因为不肯放弃伦理原则,被贴上了同样的标签。

特朗普发帖:“他们想阻止美军打赢战争”

2月28日,前总统特朗普在Truth Social上发帖:“Anthropic是激进左翼科技精英的产物,他们用‘安全协议’绑架美国军队,让士兵在战场上束手束脚。他们不是在保护人类,是在保护自己的政治正确。”

这条帖子被转发超80万次,成为右翼媒体的“圣战号角”。保守派智库“传统基金会”迅速发布报告,称Anthropic的立场“削弱了美军的作战灵活性”,并呼吁国会立法禁止“道德限制型AI”进入国防系统。

而Anthropic的员工,开始收到威胁邮件。一位工程师在LinkedIn上写道:“我们不是叛徒。我们只是不想让AI自己按下发射按钮。”

数亿美元合同蒸发,客户纷纷撤单

诉讼文件显示,Anthropic已失去约3.2亿美元的国防部合同。但这只是冰山一角。

据《华尔街日报》援引知情人士消息,至少7家国防承包商已暂停与Anthropic的商业合作,另有12家科技公司——包括微软、甲骨文、Salesforce——在内部会议上紧急评估是否继续使用Claude,担心被牵连进“政治风险”。

更致命的是声誉崩塌。一家曾计划用Claude优化退伍军人心理健康热线的非营利组织,突然取消合作,理由是“怕被贴上‘反军方’标签”。

Anthropic目前员工约1200人,2023年营收约4.8亿美元,其中近40%来自政府项目。如今,公司现金流吃紧,融资计划被迫推迟。一位投资人私下说:“这不是技术问题,是政治清算。”

法院会怎么判?历史没有先例

这场官司没有先例。美国政府从未因一家公司拒绝参与军事应用,就将其列入“供应链黑名单”。法律专家指出,这可能违反《行政程序法》中的“武断与反复无常”条款,也可能侵犯宪法第一修正案中的“言论自由”——因为Anthropic的伦理立场,本质上是一种表达。

“如果政府能因为你不肯帮它杀人,就把你从市场上踢出去,”哈佛大学法律教授Jonathan Zittrain说,“那明天它就能因为你拒绝帮它监控抗议者,而封杀一家新闻AI工具。”

Anthropic的律师团队正在寻求紧急禁令,要求立即撤销其“高风险”标签。他们不否认AI可以用于国防,但他们坚持:技术不应成为道德的奴隶,也不该是权力的武器。

这不是一场公司的抗争,是所有人的未来在投票

当AI开始参与战争决策,谁该握着最后的按钮?是战场上的指挥官?是五角大楼的官员?还是坐在硅谷办公室里、写下安全协议的工程师?

这场诉讼,没有赢家的剧本。但它的结果,将决定未来十年:AI是服务于人类的工具,还是被权力驯化的武器。

在宾夕法尼亚大道和硅谷之间,有一条看不见的线。Anthropic站在这条线上,没有后退。