最新消息:关注人工智能 AI赋能新媒体运营

Cloudflare弃用闭源模型,全面转向Kimi K2.5以突破降本增效瓶颈

科技资讯 admin 浏览

Cloudflare 用中国开源模型,省下近两百万美元

全球互联网基础设施公司 Cloudflare 最近悄悄做了一件大事:他们把原本用在核心业务里的高价AI模型,换成了中国团队开发的开源模型 Kimi K2.5。这不是测试,也不是小范围试点,而是真正在生产环境中全面替代了过去每年烧掉数百万美元的闭源方案。

具体有多省钱?一个最直观的例子是他们的代码安全扫描系统。这个系统每天要处理超过70亿个文本 token,相当于读完几十万份完整代码库。以前用的是某家美国大厂的闭源模型,光这一项服务,一年就要花掉约240万美元。换上 Kimi K2.5 后,成本直接砍掉77%,一年只花了不到55万美元。省下的钱,足够再雇十几个资深安全工程师。

更关键的是,钱省了,活儿没少干。这个新模型在一次扫描中,一次性发现了15个真实存在的安全漏洞——全部是开发团队之前没注意到的。工程师反馈说,它对复杂代码结构的理解能力,甚至比旧模型更稳,尤其是在处理多轮工具调用时,很少出现“卡壳”或“胡说八道”的情况。

为什么选 Kimi K2.5?不是因为便宜,而是真能用

Cloudflare 并不是因为便宜就换模型。他们做过整整三个月的对比测试,评估了市面上主流的开源和闭源模型。最终选中 Kimi K2.5,是因为它有三个硬实力:

  • 256K上下文窗口:能一次性读完超长代码文件,不用拆分,避免信息丢失。
  • 支持图像输入:能看懂截图、UI界面图、架构图,这对自动化测试和运维工具有极大帮助。
  • 稳定可靠:在连续运行数周后,出错率远低于同类模型,不需要人工频繁干预。

这些特性,正好匹配 Cloudflare 自动化运维、安全扫描、API 管理等真实场景。他们不需要一个“能写诗”的AI,他们要的是一个能24小时不掉链子、能看懂代码、能自动调用工具的“数字员工”。

不只是省钱,更是战略转身

Cloudflare CEO Matthew Prince 在今年SXSW大会上说过:“未来的网络,不是由人点击访问,而是由无数AI代理在后台自动跑动。”这句话现在正在变成现实。他们内部已经有超过20个自动化任务,由AI代理在无人干预的情况下运行,处理从日志分析到DNS策略调整的各种工作。

但这些代理如果全用闭源模型,成本会像滚雪球一样压垮公司。所以他们决定:不再依赖少数几家科技巨头的API。开源模型,尤其是像 Kimi K2.5 这样能本地部署、可定制、无隐藏收费的方案,成了唯一可行的路径。

现在,Cloudflare 的工程师已经能直接在内部系统里调用 Kimi K2.5,无需联网,无需授权,响应速度比过去快30%。他们甚至开始把模型部署到边缘节点,让AI推理更靠近用户——这在以前用闭源模型时根本不可能实现。

中国模型,正在改变全球基础设施

过去,全球主流企业用AI,第一选择总是OpenAI、Anthropic、Google。但这次,一家全球Top 10的CDN和网络安全公司,把核心任务交给了中国团队开发的开源模型。这不是偶然。

Kimi K2.5 是月之暗面(Moonshot AI)在2025年底发布的版本,开源后迅速被全球开发者社区关注。它的性能在 LMSYS Chatbot Arena 排行榜上,长期稳定在前五,甚至多次超越 GPT-4o。更关键的是,它不收API调用费,不设使用上限,允许商业部署——这对企业来说,是真正的“开箱即用”。

Cloudflare 的选择,已经不是“省钱”那么简单。它标志着:全球技术基础设施的底层逻辑,正在从“依赖美国闭源模型”转向“基于开源、本地可控、高性价比”的新范式。而中国团队,正在成为这场变革的重要参与者。

image.png