最新消息:关注人工智能 AI赋能新媒体运营

Anthropic被列为风险实体,OpenAI紧急接手引发争议

科技资讯 admin 浏览

Anthropic 与五角大楼谈崩,用户用脚投票:ChatGPT 被卸载,Claude 冲上榜首

上周,一场悄无声息却影响深远的科技风暴在硅谷爆发。Anthropic——这家由前 OpenAI 核心成员创立的 AI 公司,突然宣布与美国国防部的谈判彻底破裂。更让人意外的是,五角大楼随后将 Anthropic 加入了“供应链风险名单”,理由含糊其辞,却足以让投资人和客户心生警惕。

Anthropic 没有沉默。公司迅速回应:将提起法律诉讼,质疑这一认定的合法性。而就在同一时间,竞争对手 OpenAI 宣布与国防部达成新合作,将为美军提供 AI 技术支持。消息一出,舆论炸了。

用户用行动表达了立场。据第三方应用数据分析平台 Sensor Tower 显示,在 OpenAI 宣布合作后的 48 小时内,ChatGPT 在 iOS 和 Android 平台的卸载量飙升 295%。与此同时,Claude 的下载量逆势暴涨,一度冲上美国 App Store 效用类应用榜首,甚至在部分高校和科技圈社群中,出现了“卸载 OpenAI,重装 Claude”的自发运动。

谈崩的不是技术,是底线

这场冲突的真正焦点,不在算力或模型性能,而在“控制权”。

据多位知情人士透露,五角大楼希望在原有合同基础上,新增一项“扩展使用条款”,允许其将 Claude 的技术用于战场态势分析、目标识别甚至后勤调度——这些都属于“非致命性用途”,但 Anthropic 的创始人团队认为,这已踩过红线。他们曾公开承诺:绝不参与任何可能导致人类直接伤亡的军事系统。而国防部的修改条款,模糊了“支持”与“参与”的界限。

“他们想拿我们的模型当工具,却不想承担任何责任。”一位 Anthropic 内部员工在匿名访谈中说,“我们不是军火商的外包团队。”

OpenAI 的“效率”,换来了用户的背叛

OpenAI 的快速签约,被外界视为“商业理性”的胜利。但内部却并不平静。

据《华尔街日报》援引多位匿名消息源报道,OpenAI 一位负责安全与伦理的高级副总裁在协议签署前一周辞职,他在离职信中写道:“我们正在把一个本该为人类服务的技术,变成战争机器的加速器。没有护栏,没有透明度,没有公众监督。”

他的离开,不是孤例。近两个月内,OpenAI 至少有三名参与 AI 安全研究的员工离职,其中两人转投了 Anthropic 和 Mistral。一位离职员工在 LinkedIn 上只留下一句话:“我选择相信,技术不该为权力服务。”

寒蝉效应:初创公司开始不敢接军方订单

这场风波的影响,远不止两家公司。

硅谷多家 AI 初创企业高管私下向媒体透露,他们正在重新评估所有与政府相关的合作项目。一位曾与国防部接洽的 AI 初创 CEO 表示:“以前觉得这是荣誉,现在觉得是雷区。合同签了,他们能随时改条款;你不同意,就被打成‘风险企业’。这还怎么做生意?”

美国国防创新单元(DIU)的一份内部备忘录也显示,过去三个月,主动接触军方的 AI 初创数量下降了 42%。许多公司宁愿放弃数千万美元的合同,也不愿冒被贴上“风险”标签的风险。

私人恩怨,成了公共议题

更微妙的是,这场公事,掺进了私怨。

Anthropic 首席执行官 Dario Amodei 与国防部现任首席技术官 Michael Horowitz 之间,曾有过一段公开的摩擦。Horowitz 是前 Uber 高管,2021 年曾主导 Uber 与军方的 AI 项目,当时因伦理争议引发员工大规模抗议,最终项目被叫停。Amodei 当时在推特上批评:“当技术公司把军队当客户,它就不再是技术公司了。”

如今,两人再次对峙。有知情人士称,Horowitz 在谈判中多次提及 Amodei 的过往言论,并暗示“如果 Anthropic 不配合,就别怪我们公开质疑他们的诚信”。这种个人化的对抗,让原本就脆弱的信任彻底崩塌。

AI 的未来,正在被用户重新定义

过去,人们以为 AI 的伦理边界由工程师和律师决定。但现在,是用户在用下载和卸载投票。

Anthropic 没有营销,没有广告,却因为“不妥协”赢得了数百万用户的信任。OpenAI 虽然拿到了合同,却失去了人心。

这不只是两家公司的博弈,更是一场关于“技术该为谁服务”的全民对话。当政府想把 AI 变成武器的延伸,而用户只想用它写邮件、查资料、陪自己聊天时——谁才是真正的“甲方”?

答案,或许就藏在 App Store 的排行榜里。