最新消息:关注人工智能 AI赋能新媒体运营

美军方坚称:官司无法推翻Anthropic的供应链风险认定

科技资讯 admin 浏览

Anthropic 起诉五角大楼,AI伦理与军方野心正面交锋

美国国防部近日对人工智能初创公司 Anthropic 的诉讼作出强硬回应,明确表示不会因法律挑战而改变对该公司“供应链风险”的认定。这一决定,让科技公司与军方在AI使用边界上的矛盾彻底公开化。

负责研究与工程的副部长埃米尔·迈克尔在接受采访时说:“我们早就料到他们会起诉。”他强调,这场纠纷不是法庭能解决的——“这不是合同纠纷,这是价值观和国家利益的碰撞。”

去年底,五角大楼将 Anthropic 加入“供应链风险”名单,理由是其AI模型可能被“不可控地用于军事目的”。这一标签不仅让公司失去了参与政府AI采购项目的机会,更在业内引发震动——它意味着一家硅谷创业公司,被官方视为潜在的“国家安全威胁”。

Anthropic 随即提起诉讼,称国防部的认定缺乏透明程序,侵犯了公司依据宪法享有的正当程序权和言论自由。他们指出,公司从成立之初就设定了明确的“红线”:绝不允许其Claude模型用于自动杀伤武器、大规模监控或面部识别追踪系统。公司CEO达里奥·阿莫迪(Dario Amodei)曾公开表示:“我们不是在卖武器,我们是在建护栏。”

但五角大楼的立场截然不同。据多位匿名国防部官员透露,军方正推动一套全新的“人工智能作战准则”,核心是“主导权必须在美军手中”,而非由技术公司设定使用边界。一位参与制定指南的前情报官员说:“如果一家公司说‘我们不让你用这个功能’,那谁来决定什么是‘正确’的军事用途?是工程师,还是战场指挥官?”

这场冲突背后,是美国国防科技生态的深层裂痕。像Anthropic、OpenAI这样的公司,试图以“伦理框架”和“安全优先”作为品牌护城河,吸引企业和公众信任。但军方需要的是快速部署、高度适应、能应对复杂战场环境的AI系统——哪怕这意味着要突破某些道德边界。

2024年5月,美国防部下属的“人工智能保障办公室”已启动对17家AI供应商的合规审查,Anthropic只是第一个被公开点名的。知情人士称,接下来可能还有更多“伦理派”公司被纳入审查范围,尤其是那些拒绝签署“军事用途免责协议”的企业。

目前,Anthropic 仍在寻求法院下令暂停该认定,但法律专家普遍不看好其胜算。哈佛大学法律与科技中心研究员莉娜·张指出:“法院通常不愿介入国防决策,尤其是涉及‘国家安全’的模糊概念时。这是一场注定输在法庭上的战斗。”

对Anthropic而言,真正的战场不在法院,而在舆论和客户。公司正加速向医疗、教育、金融等民用领域拓展,试图用商业成功证明“安全AI”也能赚钱。但军方的打压,已让硅谷的“理想主义”面临现实重击——当国家安全成为最高优先级,伦理承诺,还能撑多久?

这场博弈,不只是两家机构的对峙,更是未来AI时代:谁有权定义“危险”?谁该为技术的用途负责?