最新消息:关注人工智能 AI赋能新媒体运营

智谱GLM-4.7-Flash 14天突破百万下载,开源大模型SOTA新标杆

科技资讯 admin 浏览

GLM-4.7-Flash:开源圈里跑得最快的轻量级模型

不到两周,下载量破百万——这不是营销数据,是开发者用鼠标投票的结果。

智谱AI刚开源的GLM-4.7-Flash,一个30B参数、专为效率优化的混合思考模型,悄悄在Hugging Face上成了爆款。没人发公告、没搞直播带货,但程序员们自发地把它塞进了本地部署、API网关、边缘设备,甚至有人拿它跑起了个人AI助手。

不是“差不多强”,是真能打

对比不是摆样子的。在SWE-bench Verified(真实代码修复任务)和τ?-Bench(复杂推理与多步推理)这些硬核测试里,GLM-4.7-Flash干掉了gpt-oss-20b和Qwen3-30B-A3B-Thinking-2507。不是小胜,是稳稳压一头。

更关键的是,它不是靠堆参数赢的。30B的规模,却跑出了接近70B模型的推理质量。在同样大小的开源模型里,它是目前综合得分最高的——没有“之一”。

为什么开发者愿意用它?

因为这玩意儿真能“用”。

有人在树莓派上跑它,响应速度比GPT-3.5还快;有人把它嵌进公司内部知识库,每天处理上千次查询,服务器负载比之前低了40%;还有学生团队用它做毕业设计,一个月没花一分钱云服务费。

它不炫技,不吹“通用智能”,就干一件事:在有限资源下,把问题答准、答快、答得省电。对开发者来说,这比任何“世界领先”的口号都实在。

不只是模型,是生态的信号

百万下载不是终点,是起点。这意味着:开源社区终于有了一个能替代闭源模型的、真正可用的轻量级选项。

过去,大家要么用GPT-4贵得离谱,要么用开源模型跑不动、答不准。现在,GLM-4.7-Flash给出了第三条路:不妥协性能,也不妥协部署成本。

有人在GitHub上留言:“终于不用半夜改Prompt去哄模型了。”

也有人在Reddit发帖:“我删了Claude,换成了它。省了钱,还更听话。”

这不是AI公司讲的故事,这是开发者的真实选择。

QQ20260204-135257.png