微软近日向美国加州北区联邦地方法院提交法庭之友(Amicus Curiae Brief)意见书,支持人工智能公司Anthropic所提出的临时限制令(Temporary Restraining Order,TRO)请求,要求暂时阻止美国国防部将其列为供应链风险(Supply Chain Risk,SCR)。
Anthropic日前起诉美国国防部,指控政府因双方对AI使用限制的分歧,而将该公司列为国防供应链风险。根据政府决定,联邦机构将在6个月内逐步停止使用Anthropic技术,但相关标记已立即影响与Anthropic合作的政府承包商与科技公司。
微软于意见书中表示,与Anthropic具有合作关系,亦将Anthropic的AI技术整合到提供给政府与企业客户的產品与服务中。因此,若相关决定立即生效,微软与其他政府承包商可能需要迅速修改产品架构、调整政府合同,甚至重建部分AI系统,可能对美军目前使用的技术能力造成影响。
微软指出,美国国防部本身已允许政府机构在6个月内逐步停止使用Anthropic服务,显示即使政策维持不变,也需要时间进行技术转换。然而,目前的供应链风险标记却立即适用于合作企业,可能导致政府承包商必须在短时间内调整系统与产品配置。微软因此主张,法院应暂时阻止该决定实施,以维持现状并让政府与Anthropic有时间寻求谈判解决方案。
值得注意的是,在微软提交意见书之前,来自OpenAI与Google的多名AI研究员也曾以个人身份向法院提交法庭之友意见书。该文件主要从AI安全与公共政策角度出发,指出Anthropic对AI用途设定的限制在技术社群中具有合理性,并警告若AI被用于国内大规模监控或完全自主武器系统,可能对民主治理与公共安全带来风险。
两份意见书的立场大致一致,皆支持暂时阻止政府的供应链风险决定,但关注重点有所不同。微软的文件主要聚焦于政府采购与产业供应链的实务影响,强调禁令可能冲击政府承包商与美军技术部署;而OpenAI与Google研究员的文件则更侧重AI治理与技术风险,主张需要为高风险AI用途设立安全护栏。