最新消息:关注人工智能 AI赋能新媒体运营

OpenAI与美国防部合作,ChatGPT遭用户大规模卸载,卸载量飙升295%

科技资讯 admin 浏览

OpenAI卷入军方合作,用户怒删ChatGPT:我们不是在买工具,是在选立场

2026年2月28日,OpenAI突然宣布与美国国防部达成一项未公开细节的合作协议,将旗下大模型接入军事级网络系统。消息一出,全网炸锅。不是因为技术多先进,而是因为——人们终于意识到,那个每天帮他们写邮件、解数学题、陪聊解闷的AI助手,可能正在悄悄为战争机器服务。

当天,ChatGPT在美国App Store的卸载量飙升295%。这不是普通用户流失,是集体出走。很多人在删除前,特意截了图发到社交媒体:“我删的不是App,是良心的代价。”有人在论坛里晒出自己用ChatGPT写的诗、写给初恋的信、帮孩子辅导作业的记录,最后加了一句:“现在,它可能在帮人瞄准目标。”

评论区成了情绪的火山口。一星差评一夜暴增775%,几乎每一条都带着愤怒的细节:“我妈妈靠它写癌症治疗笔记,现在它被用在无人机上?”“我用它写辞职信,它却在帮五角大楼写作战方案?”“你们说‘伦理框架’,可谁来问过我们这些普通人愿不愿意?”

萨姆·阿尔特曼当晚发了一条推文,说“合作有严格限制”“不会用于自主武器”,还承认“沟通太糟了”。可没人信了。人们记得2023年他曾在国会听证会上拍着胸脯说“OpenAI不为军方服务”。现在,他站在同一个讲台上,换了套说辞,但台下的人,已经不打算再听。

Anthropic趁势而起:不碰军事的AI,成了唯一被信任的

在这场信任崩塌中,没人想到,赢家竟然是那个一直低调到近乎隐形的对手——Anthropic。

早在2025年,Anthropic就公开拒绝了五角大楼的AI招标,理由简单到让人心动:“我们不参与任何能导致人类被远程杀死的系统。”他们的CEO达里尔·麦克劳德甚至在一次播客里说:“如果AI的终点是杀戮,那我们宁愿不做。”

2月28日当天,Claude的下载量暴涨410%,首次登顶美国免费应用榜。不是靠营销,不是靠噱头,而是因为用户主动搜索:“有没有不帮军队的AI?”

推特上,#ChooseClaude 的话题一夜冲上热搜。有人发帖:“我试了Claude,它问我‘你今天过得怎么样?’而不是‘需要帮您写一份轰炸目标建议书吗?’——后者,我真怕它哪天会说。”

连原本用惯了ChatGPT的程序员、记者、老师,都开始悄悄换平台。Reddit上一个帖子“我为什么从ChatGPT转到Claude”获得37万赞。评论里有人说:“我不在乎它回答得多聪明,我只在乎它会不会在某个深夜,被调去算导弹轨迹。”

用户不是在逃一个App,是在逃一种未来

OpenAI紧急更新了协议条款,声称“禁止用于大规模监控美国公民”,还上线了“伦理透明度页面”,列了十条“红线”。可没人买账。

因为问题不在条款,而在信任。当一家公司一边说“AI要为人类服务”,一边悄悄把技术卖给能决定生死的机构,用户的选择就不再是“哪个更好用”,而是“我愿不愿意把我的数据、我的思想、我的隐私,交给一个可能参与战争的公司?”

现在,全网都在传一个新词:“AI忠诚度”。人们开始问:你支持哪家AI?它有没有和军方合作?它有没有拒绝过武器合同?

在TikTok上,一个17岁女孩拍了条视频:“我奶奶用ChatGPT学英语,她说它像个小老师。现在我告诉她,那个‘小老师’可能在帮人找人打。她沉默了三分钟,然后说:‘那我们换一个吧。’”这条视频播放量破千万。

OpenAI的工程师在内部邮件里抱怨:“我们不是在造武器,我们只是提供工具。”可用户回击:“工具没有中立。当工具被用来杀人,用它的人,就是共谋。”

现在,全美用户都在去哪儿?

根据最新数据,ChatGPT的美国日活用户在协议公布后72小时内下降了38%,而Claude增长了210%。但真正的变化,是用户不再只盯着“谁最强”,而是开始寻找“谁更干净”。

除了Claude,几个小众平台也悄然崛起:

  • Perplexity:主打“可溯源、无广告、无军方背景”,下载量增长260%,尤其受大学生和研究人员青睐。
  • Hugging Face:开源社区主导,用户可自行部署模型,成为技术保守派的“数字避难所”。
  • Meta AI(Llama 3):虽然Meta也接受政府合同,但因其“非营利性研究导向”的定位,被部分用户视为“相对安全”的过渡选择。

在Reddit的r/ChatGPT板块,管理员贴出公告:“本版将不再接受任何关于OpenAI军事合作的讨论,违者封禁。”结果,24小时内,超过12万用户退订,转投r/ClaudeAI。

这不再是技术之争,是价值观的分裂。人们终于明白:AI不是冰箱,你不能只看它制冷快不快,还得问——它有没有在你家厨房里装摄像头。

现在,你选谁?