Step3.5Flash 全链路开源:国产Agent模型的真正突破
3月4日,阶跃星辰正式将Step3.5Flash模型的完整技术栈向全球开发者开放——包括预训练权重(Base)、中训权重(Midtrain),以及自研的Steptron训练框架。这不是一次简单的权重发布,而是把一个能跑在消费级GPU上的高性能Agent基座,完整地交到了开发者手里。
Step3.5Flash的核心优势,在于它“大而轻”。总参数1960亿,听起来吓人,但实际推理时只激活约110亿参数——这意味着你不需要A100集群,一块4090就能跑起来。在单请求代码生成任务中,实测峰值达到350TPS(每秒请求数),比许多闭源模型还快。这不是实验室数据,是真实开发者在Hugging Face上跑出来的结果。
你可能听过OpenClaw——那个被开发者称为“小龙虾”的开源Agent项目。现在,Step3.5Flash在它的调用榜单里冲到了全球第二。为什么?因为稳定、快、适配好。不少开发者反馈:“以前用其他模型跑Agent,10次有3次卡死或胡说八道,这次连续跑20轮,一次没崩。”
在Hugging Face上,它的下载量已经突破30万次,是目前开源Agent模型里最火的之一。不是靠营销,是靠实打实的使用反馈:有人用它做自动化测试脚本生成,有人用它构建个人AI助手,还有团队直接把它集成进企业内部的运维机器人,替代了原本每月花数万元的商业API。

为什么这次开源不一样?
过去很多所谓“开源”,只给个推理权重,训练框架和数据配方全锁着。Step3.5Flash不一样——你拿到的不只是模型,是一整套能复现、能调优、能落地的工具链。
Steptron框架支持分布式训练、低显存微调、动态MoE路由,连训练日志和评估脚本都打包好了。你不需要从零搭环境,也不用猜“他们是怎么训出来的”。一个有基础的工程师,3天就能在本地跑通微调流程。
更关键的是,它不靠“参数堆砌”吹牛。在MMLU、GPQA、HumanEval这些主流评测里,它和GPT-4o、Claude 3.5的差距已经缩小到5%以内,尤其在代码逻辑链、多步骤任务规划上,甚至反超部分闭源模型。关键是——你不用交钱,不用申请权限,直接下载就能用。
谁在用?他们怎么说?
GitHub上已经有超过120个公开项目基于Step3.5Flash构建,涵盖:
- 自动化文档生成(替代Notion AI)
- 开源项目PR自动审查助手
- 个人知识库问答机器人(本地部署,不传数据)
- 教育场景的编程辅导Agent
一位来自杭州的独立开发者在Reddit上写道:“我用它替换了Claude 3 Sonnet,每月省了800刀,效果还更好。关键是,我能改它的思考逻辑——它现在会先问我‘你确定要删这个文件吗?’而不是直接执行。”
这不是“国产替代”的口号,这是真实开发者用脚投票的结果。
下一步:开源不是终点,是起点
阶跃星辰没有止步于发布。他们同步开放了模型的评估基准和测试用例,鼓励社区提交优化方案。GitHub仓库里,已有超过500个issue和1200个star,其中30多个是来自海外开发者提交的PR。
如果你是开发者,想搭建一个不依赖商业API、不被限流、能长期稳定运行的Agent系统——Step3.5Flash,是目前你能找到的最接近“开箱即用”的选择。
别等别人给你工具。现在,工具就在那儿,等你来用。