最新消息:关注人工智能 AI赋能新媒体运营

OpenAI公布首个运行在Cerebras平台上的模型GPT-5.3-Codex-Spark,速度提升15倍

科技资讯 admin 浏览

才在本月发布Codex App Mac版、GPT-5.3-Codex模型,OpenAI昨日又公布了在Cerebras芯片平台上运行的首个模型GPT-5.3-Codex-Spark,专为实时编程设计,提供每秒1,000个token的算力与强大的代码生成能力。目前已向ChatGPT Pro用户开放试用。

GPT-5.3-Codex-Spark是OpenAI首个专为实时软件开发任务打造的模型,兼顾智能性与低延迟需求。它是Codex系列为快速推理优化的小型版本。在SWE-Bench Pro和Terminal-Bench 2.0等基准测试中,该模型的生成速度比GPT-5.1-Codex-mini快约3至4倍,相较旗舰版GPT-5.3-Codex则快了约15倍。同时,Codex-Spark具备与主模型相同的安全训练机制,包括网络安全能力。

该模型运行在Cerebras Wafer-Scale Engine 3(WSE 3)AI加速器上,具备每秒超过1,000个token的算力,可在在线编程环境中提供近乎实时的反馈。Codex-Spark允许开发者精准编辑、重构逻辑、优化界面,并立即看到结果。借助Codex-Spark,OpenAI的Codex现在可支持长期、大规模的开发任务。

GPT-5.3-Codex-Spark是双方今年1月宣布合作后的首个成果。业内普遍认为,这是OpenAI为降低对NVIDIA依赖、突破算力瓶颈所采取的战略合作。未来还将有更多成果推出;OpenAI表示,将持续与Cerebras合作,扩大数据中心容量,提升使用体验,并部署更大规模的前沿模型。

Codex-Spark是Codex向两种互补模式演进的第一步:长程推理与执行模式(longer-horizon reasoning and execution)和实时协作与快速迭代模式(real-time collaboration for rapid iteration)。目前GPT-5.3-Codex-Spark属于后者。未来这两种模式将融合,使Codex既能实现交互式操作,又能在后台将长程任务委派给子代理或并行分配给多个模型,兼顾广度与速度,用户无需在一开始就必须选择单一模式。

目前Codex-Spark基于Cerebras平台以研究预览版形式提供给ChatGPT Pro用户使用。开发者可通过Codex App、CLI和VS Code插件使用该模型。

该公司计划未来进一步扩大开放范围。OpenAI将先与部分有意将该模型集成至其产品中的设计合作伙伴合作,通过API接入GPT-5.3-Codex-Spark。数周后将扩大开放,使新模型能够部署至真实生产环境。

刚上线的Codex-Spark支持128K上下文窗口,目前仅支持文本。由于是预览版,Codex-Spark的使用流量不计入用户配额。但因需求旺盛,OpenAI提醒试用用户,可能遇到流量限制或短暂排队情况。