最新消息:关注人工智能 AI赋能新媒体运营

英伟达联手Groq定制AI芯片,OpenAI成首购客户

科技资讯 admin 浏览

英伟达联手Groq,发布全新AI推理芯片,OpenAI已率先下单

据多位接近英伟达内部的消息人士透露,该公司将在下个月的GTC开发者大会上,正式推出一款专为AI推理场景优化的全新处理器。这款芯片并非完全自研,而是深度整合了初创公司Groq的核心技术——特别是其独创的“语言处理单元”(LPU)架构。这一合作,标志着英伟达首次大规模引入外部架构,以应对AI应用从“训练”向“实时响应”转变的关键转折。

过去几年,英伟达凭借GPU统治了AI训练市场,但随着ChatGPT、AI助手、编程助手等应用的普及,市场更迫切的需求变成了“快”——用户希望AI回复不卡顿、不延迟,而传统GPU在处理文本生成的“解码”环节时,效率明显吃力。Groq的LPU架构专为顺序数据流设计,能以极低延迟完成长文本生成,延迟比主流GPU低40%以上,功耗也更低。这正是英伟达一直想补上的短板。

早在2023年,英伟达就以约200亿美元的代价,获得了Groq的关键技术授权,并将Groq的核心团队整体纳入旗下。这不是收购,却比收购更彻底——Groq的工程师直接参与新芯片的设计,其架构被深度嵌入英伟达的硬件生态。这款新芯片,将是英伟达首次将LPU与CUDA生态融合的成果,未来可无缝接入现有的NVIDIA AI平台,开发者无需重写代码就能获得性能跃升。

OpenAI紧急“回流”,Codex升级成关键战场

这场技术整合的最大赢家,或许是英伟达的老客户——OpenAI。

过去半年,OpenAI因担忧英伟达GPU成本过高、供电压力大,开始悄悄转向其他芯片供应商。Cerebras、Graphcore甚至AMD都曾进入其供应链评估名单。但随着英伟达这款新芯片的细节曝光,OpenAI迅速改变策略。据知情人士透露,OpenAI已确认成为该芯片的首批核心客户,并计划在2025年下半年,全面用新系统替换其Codex编程助手的底层算力。

Codex是OpenAI对抗Anthropic的Claude Code、Google的Gemini Code等竞品的核心武器。目前,Codex在处理复杂代码生成时,响应速度常被用户诟病“等得久”。新芯片落地后,OpenAI内部测试显示,代码生成速度提升近50%,单次调用成本下降30%。这意味着,未来开发者使用GitHub Copilot这类工具时,可能不再需要等待几秒才能看到建议——响应将接近实时。

算力竞赛,从“堆芯片”转向“算得准、省得狠”

谷歌的TPU、亚马逊的Trainium和Inferentia、苹果的AI芯片,都在试图分食英伟达的市场。但它们大多聚焦于训练或封闭生态,难以在开放的AI应用层形成合力。

英伟达这次的打法,很务实:不靠单一性能参数压人,而是用“效率+兼容+生态”三招组合拳。新芯片不仅面向大厂,也将通过NVIDIA AI Enterprise平台向中小企业开放,让中小开发者也能以更低的成本部署高性能AI服务。

更重要的是,这标志着AI芯片竞争进入新阶段——不再是谁的算力最大,而是谁能让AI“用得顺、跑得快、花得少”。一位硅谷芯片分析师直言:“以前是比谁的GPU多,现在是比谁的AI对话不卡顿。”

据行业预测,到2026年,全球AI推理芯片市场规模将突破800亿美元,首次超过训练芯片。英伟达这次的“技术借力”,不只是应对挑战,更是在重新定义AI落地的门槛。

合作 握手 商业 (2)