国产大模型正在改写全球AI的规则
2026年3月初,全球最大的AI API聚合平台OpenRouter公布了一组让人意外的数据:前三大调用量模型,全部来自中国——MiniMax M2.5、Kimi K2.5、GLM-5。没有OpenAI的GPT-4,没有Anthropic的Claude 3,也没有Google的Gemini。这三款中国模型,靠的不是宣传噱头,而是开发者用真金白银的调用量投出的票。
过去,全球开发者习惯性地认为,只有美国大厂才能做出“真正好用”的AI。但现在,他们发现:中国团队不仅做得出来,还做得更便宜、更快、更贴合实际需求。
MiniMax M2.5:一周烧掉3.07万亿Token,怎么做到的?
2月13日上线,到2月20日,MiniMax M2.5的总Token消耗突破3.07万亿。这意味着,全球数百万开发者在短短七天里,用它跑出了相当于人类十年阅读量的文本处理任务。
这不是靠烧钱堆出来的流量,而是实打实的工程效率。M2.5被设计成“智能体引擎”——不是聊天机器人,而是能自动写代码、调API、管理任务流的后台助手。一个电商团队用它自动化处理客服工单,一天节省了120小时人工;一个独立开发者用它搭建了自动更新股票策略的机器人,月成本不到30美元。
价格是关键。M2.5的每百万Token价格不到0.15美元,是同期GPT-4 Turbo的1/8。很多开发者说:“以前用AI是‘试试看’,现在是‘天天用’。”
效果也惊人。MiniMax在2月的年度经常性收入(ARR)直接冲到1.5亿美元,比原定全年目标提前两个月达成。这不是靠政府补贴,是靠企业客户和开发者持续付费。
为什么它只有100亿参数?小模型的逆袭
当所有人都在比谁的模型参数更大、训练数据更多时,MiniMax反其道而行之——激活参数控制在100亿左右,远低于主流模型的千亿级规模。
这不是技术落后,而是一次精准的取舍。他们用MoE(专家混合)架构,让模型在需要时才“唤醒”对应的专家模块,而不是全量计算。结果是:响应速度提升40%,推理成本下降60%,在编程、逻辑推理、任务规划等高频场景中,表现甚至超过更大模型。
但短板也很明显。一些用户反馈,面对长文本理解、专业文献分析或冷门知识时,M2.5偶尔会“卡壳”。这不是模型不行,而是它被设计成“快而专”,而不是“全而广”。
这恰恰是它成功的原因:它不试图成为万能助手,而是成为你每天早上打开电脑后,第一个帮你把杂事处理掉的“数字员工”。
下周,DeepSeek V4 vs MiniMax M3.0:真正的对决才刚开始
中国大模型的竞争,已经进入“周更”节奏。
就在下周,DeepSeek将发布V4版本。据多个开发者社区透露,它在代码生成和数学推理上做了重大优化,尤其在长上下文(128K+)处理上表现突出,目标直指M2.5的“知识短板”。
而MiniMax这边,团队已确认M3.0将在今年上半年上线。内部测试数据显示,新模型在多模态理解(图片、图表、PDF)上有了质的飞跃,能直接分析财报截图、流程图、甚至手写笔记。更关键的是,它开始支持“记忆”功能——能记住你过去用它写过的代码风格、常用指令,逐渐变成你专属的AI搭档。
摩根士丹利在最新报告中写道:“中国AI的下一步,不是追赶,而是定义。”他们认为,M3.0如果能同时做到:低成本、强智能体能力、多模态理解、个性化记忆——那它将成为全球开发者首选的“基础设施”,而不仅仅是另一个模型。
真正的赢家,是那些不用再等“AI上线”的人
在硅谷,一个AI项目从想法到上线,平均要等3个月——等模型发布、等API权限、等成本下降。
在中国,一个独立开发者今天写完代码,明天就能用M2.5跑通自动化流程,后天就上线了产品。
这不是技术的胜利,是工程思维的胜利:不追求参数规模的虚荣,不沉迷论文指标,而是盯着一个问题——“怎么让开发者少花时间,多出成果?”
全球的开发者正在用脚投票。他们不需要“最先进”的模型,他们需要的是:便宜、稳定、能干活的工具。
而中国团队,正在把这件事,做到极致。