最新消息:关注人工智能 AI赋能新媒体运营

遭遇供应链风险,Anthropic反击成功获得禁令

科技资讯 admin 浏览

背景图片取自/Dynamic Wang on Unsplash

美国联邦法院近日裁定,暂时阻止政府对AI公司Anthropic的封杀措施,要求在案件审理期间不得执行相关限制。这场争议源于美国国防部与Anthropic在AI军事用途上的重大分歧,最终演变为涉及国家安全、产业政策与宪法权利的法律冲突。

事件可追溯至2月底,当时美国国防部要求Anthropic放宽Claude模型的使用限制,纳入更广泛的军事用途,否则将援引《国防生产法》(Defense Production Act)或将该公司列为“供应链风险”(Supply Chain Risk,SCR)。Anthropic随后公开回应,重申两项不会让步的政策红线,即不得用于大规模境内监控,以及不得在无人类介入下执行自主武器的目标选择与攻击决策。

双方谈判破裂后,冲突迅速升级。美国总统特朗普于2月28日指示联邦机构全面停止使用Anthropic技术,国防部也于3月初正式将其列为供应链风险,禁止承包商及相关合作伙伴采用Claude,实质上将其排除在政府采购体系之外。

Anthropic随即提起诉讼,主张政府滥用裁量权,并指控相关措施违反美国宪法第一修正案。该公司指出,其此前公开反对大规模境内监控与完全自主武器等AI用途,是基于政策与伦理的表达,但政府在其表态后即采取全面封杀措施,实质上构成对企业言论的报复性行动,而非单纯的国家安全或采购决策。

法院在初步裁定中认为,Anthropic的主张具有一定可能性,特别是政府行为可能涉及不当动机,且已对公司造成难以挽回的损害,因此核发初步禁令,暂停相关封杀措施。在最终判决出炉前,Anthropic得以维持既有业务与合作关系。

此案也引发AI产业高度关注。多名来自OpenAI与Google的研究人员以个人身份提交法庭之友意见书(Amicus Curiae Brief)声援Anthropic,微软亦通过相关渠道表达关注。OpenAI首席执行官Sam Altman亦在X上发文表示,将Anthropic列为供应链风险对产业与国家都将造成不良影响。

市场分析认为,此事的争议在于政府是否可通过“供应链风险”机制,绕过既有采购与监督程序,对特定企业施加全面性市场限制;倘若缺乏明确标准与程序,那么未来行政机关可在未经国会授权下,决定哪些AI技术可以存在于市场,进一步改变产业竞争结构与权力分配。