最新消息:关注人工智能 AI赋能新媒体运营

Anthropic上诉失败,法院驳回其阻止国防部黑名单的请求

科技资讯 admin 浏览

Anthropic被美军“拉黑”,Claude模型无缘五角大楼合同

近日,人工智能公司Anthropic在一场关键法律战中遭遇重击。华盛顿特区联邦上诉法院驳回了该公司请求暂停美国国防部将其列入“供应链风险名单”的临时禁令申请。这意味着,在诉讼结果出炉前,Anthropic将无法参与任何与美军相关的采购项目——包括可能高达数亿美元的AI合同。

这一决定并非偶然。自2023年以来,美国国防部持续收紧对外国背景或“不可控”AI技术的使用审查,尤其针对那些拒绝完全开放模型权限的公司。Anthropic因坚持“不用于全自动武器系统”和“不用于大规模监控”的使用条款,成为军方眼中的“麻烦制造者”。而法院在裁决中明确表示:在当前国际局势紧张的背景下,国家安全优先于商业利益。

法院:经济损失≠宪法权利受损

Anthropic曾声称,被列入黑名单不仅导致商业机会丧失,还侵犯了其“言论自由”——理由是政府以行政手段限制其技术的传播。但法院并未采信这一说法。法官指出,国防部并未禁止Claude模型的公开使用,也未阻止其在民用领域(如教育、医疗、企业服务)的推广,仅是限制其进入军事系统。这种“选择性排除”不构成对言论自由的压制。

法院也承认,这一决定对Anthropic造成了实质性的财务冲击。作为估值超180亿美元的“硅谷独角兽”,公司原本希望借助军方订单提升技术可信度,并撬动更多政府客户。但法院认为,商业损失不能凌驾于国防安全考量之上。裁决书中写道:“当一家公司拒绝让渡对核心AI系统的控制权时,政府有权决定谁可以参与国家安全项目。”

背后是AI伦理与军方需求的激烈碰撞

这场争端的核心,远不止是合同的得失。美国国防部希望获得对AI模型的“完全控制权”——包括访问训练数据、修改算法、部署于无人机、情报分析甚至未来可能的自动化作战系统。而Anthropic则坚持“伦理护栏”:拒绝将Claude用于致命性自主武器,也反对用于大规模社会监控。

这不是孤例。去年,OpenAI曾因类似立场被排除在部分军方AI项目之外;Google DeepMind也因员工抗议,主动退出了美军“Project Maven”项目。但Anthropic是目前唯一一家因明确拒绝军方要求而被正式列入“供应链风险名单”的AI公司。

业内分析人士指出,这一事件标志着美国政府对AI技术的管控进入新阶段:不再只看技术能力,更要看“政治可靠性”。谁能接受军方的“无限制授权”,谁才能进入国防生态。而那些坚守伦理底线的公司,正面临“被边缘化”的现实风险。

下一步:官司还会打,但市场已变天

尽管法院已同意加快审理此案,但预计整个诉讼过程至少还需一年以上。在此期间,Anthropic已开始调整战略:一方面加速与州政府、医疗系统和教育机构合作,试图绕开联邦层面的封锁;另一方面,公司正与欧洲和亚洲的政府机构接洽,寻求替代性市场。

与此同时,多家国防承包商已开始全面排查系统,移除任何疑似使用Claude模型的组件。有知情人士透露,美国空军某情报分析平台已因“潜在风险”暂停了Claude的测试版本。

一张图,道尽了这场冲突的荒诞:Anthropic官网首页依然展示着Claude 3的流畅对话能力,而五角大楼的采购清单上,却已悄然划掉了它的名字。

Anthropic、克劳德