最新消息:关注人工智能 AI赋能新媒体运营

阿里云百炼上线多模型自由切换:一站式接入Qwen3.5、GLM-5等顶尖开源大模型

科技资讯 admin 浏览

百炼上线“Coding Plan”:四大国产大模型,一键接入

2026年2月25日,阿里云旗下的大模型服务平台“百炼”悄然上线了一项新功能——Coding Plan。这不是一次普通的功能迭代,而是一次对开发者使用习惯的直接重构:你不再需要分别注册、申请API密钥、切换文档、调试不同模型的输入格式。现在,Qwen3.5、GLM-5、MiniMax M2.5、Kimi K2.5,这四个国内最活跃的开源大模型,全都打包进了一个接口里。

你写代码时觉得Qwen3.5生成的注释最顺手?切。做逻辑推理时GLM-5总能戳中要害?换。做客服机器人想让AI更有“人味儿”?试试MiniMax。处理一份50页的合同或海外财报?Kimi K2.5的长文本能力早就被多家出海企业验证过。这一切,不用跳转页面,不用重新配置,就在同一个控制台里,点一下就能切换。

谁在用?开发者和小团队的“省心账”

这不是给大厂准备的“炫技功能”。真正让开发者心动的,是它背后那套算力成本的计算方式。

过去,想测试四个模型的效果,你得分别申请四个平台的额度,有的免费5000token,有的要绑信用卡,有的还得等审核。现在,百炼的Coding Plan直接给你一个统一的“额度池”——每月30万token免费,企业用户可升级至百万级,按需叠加。这意味着,一个三个人的创业团队,可以同时用Qwen跑前端代码生成,用GLM做需求文档分析,用Kimi读英文用户反馈,而不用为每个模型单独买算力。

“我们上周刚上线一个内部工具,用Qwen生成SQL,GLM校验逻辑,Kimi写用户提示语,全程没碰过其他平台。”一位来自杭州的独立开发者在社区分享,“以前光是调试API密钥就花掉两天,现在两小时搞定。”

为什么是阿里云?它不“吃独食”

在大模型圈子里,平台往往喜欢“自家孩子最优秀”,要么闭门造车,要么只推自家模型。但阿里云这次反其道而行——把竞品的模型,全接进自己的平台。

这不是“投降”,而是更聪明的布局。通义千问依然是它的王牌,但当开发者发现,百炼能同时支持GLM的严谨、MiniMax的共情、Kimi的长文本,他们就更难轻易离开。这不是“绑定”,而是“兼容”——你用得顺手,自然就离不开这个工具箱。

有行业人士指出,这种“模型超市”模式,正在成为新的基础设施标准。就像当年AWS整合了多种数据库和计算服务,今天的大模型平台,拼的不再是哪个模型最强,而是你能不能让开发者“一次登录,全都能用”。

背后是云底座,不是模型堆砌

能实现无缝切换,靠的不是几个API的简单拼接。百炼背后是阿里云自研的推理调度系统,能在毫秒级完成模型负载切换,自动避开高峰期拥堵,甚至在某个模型临时不可用时,智能降级到备用模型,不中断服务。

“我们见过太多平台,号称支持多模型,结果一到高峰就报错,或者响应慢到要等十秒。”一位AI产品经理说,“百炼这次的稳定性,是真敢拿企业级SLA来承诺的。”

目前,Coding Plan已向所有百炼注册用户开放,免费额度无需绑定信用卡,企业用户可直接在控制台申请升级。没有隐藏收费,没有强制订阅,没有“体验版”限制——这在当前的AI服务市场,已经算得上一种“反套路”。

开发者说:别再让我们选“最不差”的了

“以前是逼着你选一个模型,然后硬着头皮用。”一位在GitHub上开源AI工具的开发者说,“现在是平台说:你想要什么,我都有,你挑。”

这不是技术秀,是服务思维的转变。当模型不再是一场“谁家更强”的军备竞赛,而变成像水电煤一样的基础资源,真正的创新才会从模型本身,转移到怎么用它们解决真实问题上。

百炼的这一步,或许不是最轰动的,但它可能是最务实的——让开发者,重新把时间,花在写代码上,而不是调试API上。