最新消息:关注人工智能 AI赋能新媒体运营

OpenAI拟引入第三方AI芯片,挑战英伟达算力垄断

科技资讯 admin 浏览

OpenAI悄悄转向:不再只靠英伟达

过去几年,OpenAI的AI模型几乎全靠英伟达的GPU驱动。从GPT-3到GPT-4,每一次突破背后,都是H100芯片在默默运转。但最近,知情人士透露,OpenAI正在悄悄改变策略——它不再把所有希望押在英伟达身上。

问题出在“响应速度”上。不是模型不够聪明,而是当用户问一个复杂问题、让AI写一段代码、或调试一个程序时,系统卡顿了。哪怕只慢半秒,开发者就会察觉。CEO山姆·奥特曼在内部会议中直言:“我们不能让工具的延迟,拖垮专业用户的效率。”

为什么“推理”比“训练”更关键

过去,AI公司最看重的是“训练”——用海量数据喂出一个强大的模型。但现在,真正影响用户体验的,是“推理”:模型给出答案的那一刻。

举个例子:你用ChatGPT写Python代码,模型需要在几秒内完成思考、组织逻辑、输出结果。但当前的GPU架构,每次计算都要从远处的显存里“搬数据”,就像你写代码时,每敲一个字母都要去隔壁房间拿键盘——再快的处理器,也架不住来回跑腿。

OpenAI发现,同样的模型,在不同硬件上,响应时间能差出30%以上。而这30%,就是用户流失的临界点。

新伙伴登场:Cerebras和Groq

为了解决这个问题,OpenAI开始接触两家“非主流”芯片公司。

Cerebras,一家总部位于加州的初创公司,做了一件听起来像科幻的事:把整个芯片做成一个“超大内存池”。它的Wafer-Scale Engine芯片,集成了超过40万亿个晶体管,内存直接焊在计算单元旁边,数据不用远距离搬运,响应快得惊人。OpenAI已与之达成合作,未来将用Cerebras芯片处理约10%的推理负载,主要用在代码生成和复杂交互场景。

Groq,另一家被低调关注的公司,其芯片架构专为“顺序推理”优化,特别适合聊天机器人这类需要连续输出的场景。OpenAI曾多次派人前往其总部,测试其LPU(Language Processing Unit)在真实对话中的表现。虽然尚未正式签约,但内部测试数据已让团队感到惊喜。

英伟达的千亿协议,黄了?

就在几个月前,OpenAI和英伟达正谈一笔高达1000亿美元的交易:英伟达以低价供应芯片,换取OpenAI的股权。外界一度认为,这将是AI史上最大的“绑定”协议。

但现在,谈判陷入僵局。知情人士称,OpenAI对英伟达的交付节奏和未来产能承诺感到不安。而英伟达方面,也意识到自己不再是唯一选择。

与此同时,OpenAI已经悄悄和AMD签下新订单,采购其MI300X芯片,用于部分训练和推理任务。这不是试水,而是战略性的“去英伟达化”。

对手早已行动:Anthropic和谷歌的“自研芯片”

OpenAI不是唯一在换赛道的玩家。

Anthropic的Claude模型,几乎全跑在谷歌自研的TPU上。TPU专为AI推理设计,延迟低、功耗稳,在对话场景中表现稳定。谷歌内部甚至有团队称:“我们不需要等英伟达,我们自己就是基础设施。”

而微软——OpenAI的长期投资方——也在大力推动Azure上的自研AI芯片(如Maia),目标就是为自家AI服务提供独立算力支撑。

这意味着,英伟达不再是AI世界的“水电煤”。它正在从“唯一供应商”,变成“众多选择之一”。

市场正在重新洗牌

黄仁勋在公开场合仍称OpenAI是“最重要的合作伙伴”,也强调英伟达的领先地位。但私下,他的团队已开始调整策略:不再只卖芯片,而是提供“全栈解决方案”——从软件优化到定制集群,试图用服务黏住客户。

而OpenAI的动作,更像是一个信号:当AI从“实验室技术”变成“日常工具”,用户不再容忍任何不必要的延迟。谁能让AI“快到感觉不到等待”,谁就能赢得未来。

这场算力战争,不再只是芯片参数的比拼。它关乎:你的AI助手,是等你三秒,还是立刻回应。