最新消息:关注人工智能 AI赋能新媒体运营

Anthropic将零成本向美政府提供AI模型与工程师支持,回应国家安全风险认定

科技资讯 admin 浏览

Anthropic 面对“国家安全风险”认定:一边打官司,一边送模型

美国战争部(原国防部)近日将 Anthropic 列为“对美国国家安全构成供应链风险的实体”,这一决定瞬间在军方、科技圈和国会内部引发震动。作为全球少数几家能为美军提供高可靠AI推理能力的公司,Anthropic 的突然“上榜”让不少前线分析师和情报部门措手不及。

面对这一突如其来的打击,Anthropic 首席执行官达里奥·阿莫代伊(Dario Amodei)当天发布公开声明,态度明确:这是一次“没有法律依据、缺乏透明程序”的行政动作,公司已启动法律程序,准备向联邦法院提起诉讼。

但与此同时,阿莫代伊也做了一件出人意料的事——他宣布,Anthropic 将在法律过渡期内,继续向国防部、情报机构和作战指挥部免费提供其最先进的AI模型,仅收取一美元象征性费用,并派出工程师团队7×24小时驻场支持,确保关键任务不因技术断供而中断。

“我们不认同这个决定,但我们不会让士兵和分析师在战场上失去工具。”阿莫代伊在声明中说,“如果政府想用我们的技术,我们就提供。如果他们想起诉我们,我们也准备好应诉。这两件事,不矛盾。”

一封被泄露的邮件,和一场及时的道歉

就在认定公布前一周,一封内部邮件被媒体曝光。邮件中,一名Anthropic高管曾用激烈言辞批评OpenAI“把AI卖给五角大楼当武器”,并称“我们不会成为下一个Palantir”。这封邮件被广泛解读为公司对军方合作的“道德优越感”宣言,引发舆论哗然。

阿莫代伊今日公开回应:“那封邮件是六天前,我在连续工作36小时、压力巨大时写的草稿。它没有经过审核,也不代表公司立场。我为此道歉。”

他进一步澄清,Anthropic 的核心红线从未改变:绝不开发或部署“完全自主武器系统”,也绝不参与“大规模国内监控”。但对情报分析、战场态势感知、作战模拟、网络威胁检测、后勤优化等非致命性军事应用,公司不仅支持,而且引以为傲。

“我们不是在卖武器,我们是在帮情报官从海量数据里找到真正重要的信号。这和医生用AI读CT片,本质是一样的。”一位匿名军方技术顾问对《纽约时报》表示,“Anthropic 的模型在反恐情报分析中,已经帮我们提前发现了三个潜在袭击网络。”

背后是军方AI订单的暗战

这场风波的背后,是五角大楼AI采购权的激烈争夺。OpenAI 正在与Lockheed Martin合作推进“Project Nightingale”,试图拿下下一代指挥系统AI合同;而Google DeepMind 也通过其“Project Nimbus”与国防创新单元(DIU)深度绑定。

Anthropic 被列入“风险实体”,恰逢其与国防部的“Project Aurora”项目进入关键测试阶段——该项目旨在为特种部队提供实时战场语言翻译与战术建议系统。知情人士透露,此次认定可能源于内部竞争者施压,或是部分国会议员对“非本土AI公司”介入敏感系统的长期焦虑。

但现实是:目前全球能稳定运行100B+参数、具备军用级安全审计能力的AI模型,不超过五个。而Anthropic 的Claude 3系列,是唯一通过NIST安全认证、并部署在美军加密云环境中的非谷歌/微软系模型。

“他们可以封我们,但别指望两周内找到替代品。”一位退役中将私下对记者说,“我们不是在选‘最道德’的公司,我们在选‘最管用’的系统。”

下一步:法庭见,但系统照用

目前,Anthropic 已向美国联邦地区法院提交了“临时禁令申请”,要求暂停该认定的执行效力,理由是“违反行政程序法”和“缺乏正当程序”。

与此同时,国防部内部已收到正式通知:Anthropic 的AI服务将按原计划继续运行,直至法院裁决或另行通知。多名知情官员表示,军方高层对此持“务实态度”——技术不能停,法律程序也得走。

阿莫代伊最后强调:“我们不是反政府,我们是反无理。我们愿意为美国安全出力,但前提是规则公平、程序透明。如果今天可以因为‘政治风向’把一家公司定为风险,明天谁又不会被贴上标签?”

这场官司,可能不会在几个月内结束。但在这期间,美军的指挥中心、情报分析室、无人机操作站,依然在运行着Claude模型的代码。一边是法庭上的剑拔弩张,一边是屏幕上的实时情报流——这就是2025年,美国AI与国家安全的真实图景。