ChatGPT遭遇信任危机:用户大规模卸载,伦理争议引爆市场洗牌
2026年2月28日,一条关于OpenAI与美国国防部达成合作的消息在社交媒体上迅速发酵。尽管官方未公布具体合作内容,但多方信源指出,该项目涉及利用AI优化军事决策系统与战场情报分析。这一消息点燃了公众对人工智能被用于战争工具的深层忧虑。当天,ChatGPT移动端应用在美国遭遇史无前例的用户流失——Sensor Tower数据显示,单日卸载量环比暴增295%,远超过去30天平均9%的正常波动。更令人震惊的是,App Store中一星差评数量在24小时内飙升775%,而五星好评则腰斩近半,大量用户留言:“我不需要一个为战争服务的AI。”“我宁愿不用,也不愿成为帮凶。”

Claude趁势崛起:拒绝军方合作成最大卖点
就在OpenAI深陷舆论漩涡之际,竞争对手Anthropic旗下的Claude模型迎来爆发式增长。早在2025年底,Anthropic就公开表态:绝不与任何军事机构合作开发自动化武器或监控系统。这一立场在2月28日之后被无数用户视为“技术良心”的象征。据Appfigures统计,Claude在2月28日当天下载量环比增长51%,3月2日一举登顶美国App Store免费应用榜首,一周内排名跃升超过20位。在加拿大、德国、法国、日本、澳大利亚和瑞典等六国,Claude同时登上免费应用排行榜冠军。
Similarweb数据显示,过去一周,Claude在美国的日均下载量达到2026年1月平均水平的20倍。在Reddit和Twitter上,“#ChooseClaude”话题热度持续攀升,不少科技博主和大学教授自发推荐:“他们没拿军方的钱,这比算法多智能更重要。”一位来自加州的高中教师在社交平台写道:“我让学生们用AI写论文,但我不能接受他们用的工具,可能正在帮人瞄准目标。”
用户不再只看功能,更看立场
这场市场剧变的背后,是用户价值观的深刻转变。过去,人们选择AI工具主要看响应速度、准确度和界面设计。如今,越来越多用户开始追问:“这家公司的钱从哪来?”“他们的技术会不会被用来监控抗议者?”“他们是否在为战争机器铺路?”
根据《纽约时报》3月5日的调查,超过68%的美国AI用户表示,如果某款AI产品被曝与军方或执法机构合作,他们将考虑更换。在德国,已有超过120所高校联合发布声明,禁止在校内设备上安装OpenAI官方应用,转而推荐Claude和开源模型如Mistral。
OpenAI至今未就合作细节做出完整说明,仅称“与政府机构的对话旨在提升公共安全”。但公众的疑虑并未因此平息。有知情人士向《The Information》透露,OpenAI内部曾有多名工程师因反对该项目辞职,其中一人在离职信中写道:“我们造的是对话机器人,不是杀戮优化器。”
伦理,正成为AI时代的新护城河
这场风波或许只是开始。欧盟已启动对AI军事化应用的专项审查,加拿大政府宣布将对所有政府采购的AI系统进行“伦理影响评估”。而Anthropic则趁势推出“透明承诺”计划:公开所有合作方名单、设立独立伦理委员会,并承诺未来十年不接受任何国防合同。
如今,AI的竞争不再只是算力和模型参数的比拼,更是价值观的对决。当技术拥有改变世界的力量,选择谁,其实是在选择你希望世界变成什么样。