最新消息:关注人工智能 AI赋能新媒体运营

英伟达联手Groq打造定制AI推理芯片,OpenAI入局重塑行业格局

科技资讯 admin 浏览

英伟达联手Groq,为OpenAI打造“推理核弹”

2026年2月底,硅谷传出重磅消息:英伟达正在为OpenAI量身打造一款全新AI处理器,目标只有一个——让大模型的响应速度更快、耗电更少。这不是普通升级,而是一次对现有AI硬件逻辑的彻底重构。

这款芯片不会出现在消费市场,也不会用于普通企业服务器。它专为OpenAI和少数顶级AI实验室定制,内部代号“Project Ares”。知情人士透露,它的推理性能比当前H200芯片快近3倍,功耗却降低40%以上——这意味着,同样的电费,能多跑近两倍的ChatGPT请求。

不是英伟达自己造的,但比自己造的更狠

这次英伟达没走老路。它没有在自家GPU上修修补补,而是直接把硅谷最锋利的“刀”——Groq的LPU(Language Processing Unit)——嵌进了自己的系统里。

Groq这家公司过去三年几乎没怎么营销,却靠一块芯片在业内掀起风暴。2023年,他们用LPU在公开测试中把GPT-4的响应速度压到17毫秒,是当时英伟达A100的五分之一。没人知道他们怎么做到的,但开发者们都知道:当用户等不起,速度就是命。

这次,英伟达把Groq的芯片和自己的互联技术、散热架构、驱动栈深度整合,做成了一整套“推理引擎”。不是卖芯片,是卖“开箱即用”的超快响应系统。

OpenAI回来了,但不是因为忠诚

过去半年,OpenAI一直在悄悄试水“去英伟达化”。去年12月,他们官宣与AI芯片初创公司Cerebras达成合作,计划自研推理芯片。外界一度以为,英伟达的垄断要崩了。

但今年初,消息反转:OpenAI不仅放弃了自研路线,还主动找上门,要求英伟达优先保障“Project Ares”的产能。原因很简单——自研芯片进度滞后,原型机延迟了6个月;而市场等不起。

“我们不是不想自己做,”一位OpenAI工程师私下对媒体表示,“但当用户每天问10亿次问题,你连等半年都等不起。”

黄仁勋这次赢的不是技术,是时间。他用一个能立刻用、立刻跑、立刻省钱的方案,把OpenAI从泥潭里拽了回来。

真正的战场,不在训练,而在响应

过去五年,AI竞赛是算力军备赛:谁的GPU多,谁就能训出更大的模型。但现在,模型参数已经突破万亿,训练的边际效益在递减。真正的瓶颈,变成了“推理”——用户输入一个问题,系统多久能回话。

谷歌、Meta、Anthropic都在自研推理芯片,但没人敢说能比得上实时性。而OpenAI的GPT-5,预计将在2026年夏季上线,日均请求量可能突破500亿次。每慢100毫秒,就意味着服务器成本多烧几百万美元。

英伟达这次不是在卖芯片,是在卖“用户体验的确定性”。他们知道,未来AI的胜负手,不在模型多大,而在你问完问题后,屏幕多久亮起来。

GTC 2026,一场没有观众的发布会

英伟达计划在2026年3月的GTC开发者大会上正式发布这款系统。但这场发布不会像往年那样满场闪光灯——它只对少数客户开放,不对外销售,不公布详细参数。

你不会在京东或亚马逊买到它。你只会通过ChatGPT、Claude、Perplexity这些产品,感受到它的存在:更快的回复、更少的等待、更稳定的深夜服务。

这是一场沉默的胜利。没有广告,没有发布会直播,但它的影响,会渗透进每一个深夜还在用AI写报告的学生、每个用它写代码的工程师、每个靠它做客服的公司。

当AI从实验室走向日常,真正的霸主,不是谁训出了最大的模型,而是谁让每一次提问,都像呼吸一样自然。