OpenAI推出GPT-5.3-Codex-Spark,首次搭载Cerebras芯片,剑指英伟达
2026年2月12日,OpenAI正式发布了一款全新的AI编程助手——GPT-5.3-Codex-Spark。这不是一次普通的模型迭代,而是OpenAI首次在核心产品中全面采用Cerebras Systems的晶圆级芯片,标志着这家AI巨头在算力自主道路上迈出了最关键的一步。
这款模型专为开发者设计,不是“能写代码的AI”,而是“能陪你写代码的同事”。它不再像过去那样,一启动就得等上几十秒甚至几分钟才给出响应。现在,开发者在写到一半突然想到一个新需求,只需一句话:“暂停,先帮我改这个bug”,模型立刻中断当前任务,跳转处理,响应速度接近实时。这种“打断即响应”的能力,让原本碎片化的开发流程变得一气呵成。
从写函数、补注释,到自动生成单元测试、运行CI/CD流水线,GPT-5.3-Codex-Spark已经深度集成进主流IDE(如VS Code、JetBrains系列),能直接调用本地环境、读取项目结构、甚至根据Git提交历史推测你下一步想做什么。一位使用内测版的资深工程师在Reddit上写道:“我昨天用它一天,没开过文档,没查Stack Overflow,代码写得比平时快了40%。”
百亿美金押注:OpenAI为何不再依赖英伟达
这场技术变革的背后,是一场价值超过100亿美元的长期合作。2024年,OpenAI与Cerebras签署了一份为期五年的独家协议,不仅采购数万块Cerebras Wafer-Scale Engine 3(WSE-3)芯片,更共同建设全球最大的AI训练集群之一——位于内华达州的“Project Phoenix”数据中心。
不同于传统GPU集群,Cerebras的芯片是单块晶圆级处理器,面积达46,225平方毫米,集成了2.6万亿个晶体管,相当于把整个GPU集群“压”进一块芯片。它没有传统显存瓶颈,数据在芯片内部自由流动,特别适合大模型的连续推理和高并发任务——而这正是开发者日常交互中对延迟的极致要求。
据知情人士透露,OpenAI内部已将Cerebras集群命名为“Project Blue Sky”,作为GPT-5及后续模型的主力训练与推理平台。到2028年,该集群将实现750兆瓦的满负荷运行,相当于一座中型城市的用电量,全部用于支撑AI服务。
这不是技术炫技,是生存之战
过去三年,英伟达的H100芯片供不应求,价格一度被炒至3万美元以上,且优先供应谷歌、微软等大客户。OpenAI虽是英伟达最大买家之一,却始终受制于产能和排期。2025年春季,因H100交付延迟,GPT-4o的上线时间被迫推迟近两个月,内部邮件显示,这一延误导致用户流失约120万付费订阅者。
“我们不能再把命脉交在别人手里。”一位OpenAI高管在内部会议中直言。如今,Cerebras芯片已实现自主可控的供应链,生产全部在美国本土完成,无海外依赖。更重要的是,Cerebras的架构对开源友好,OpenAI已将部分底层驱动代码开放给开发者社区,鼓励第三方优化工具链。
市场反应迅速。2026年3月,GitHub宣布将GPT-5.3-Codex-Spark作为其Copilot+服务的默认引擎,取代此前基于英伟达的版本。开发者社区中,“告别等待”、“代码终于不卡了”成为高频关键词。而英伟达股价在消息公布当日下跌4.7%,创一年最大单日跌幅。
OpenAI没有公开宣布“放弃英伟达”,但它的行动已经说明一切:当算力成为AI时代的石油,掌握炼油厂,远比买油更重要。