最新消息:关注人工智能 AI赋能新媒体运营

黄仁勋:投资300亿美元给OpenAI或成最后一家

科技资讯 admin 浏览

英伟达官宣:300亿美金是最后一大笔投资

英伟达CEO黄仁勋在摩根士丹利科技大会上明确表示,公司对OpenAI的300亿美元投资“很可能是最后一次”。这个说法直接浇灭了市场此前流传的“英伟达或将加码至1000亿美元”的猜测。黄仁勋说得很清楚:OpenAI正在全力冲刺2026年底前的IPO,一旦上市,双方的合作模式就不再是资本输血,而是商业伙伴之间的新关系。

不只是OpenAI,英伟达对另一家AI巨头Anthropic的100亿美元投资,也被黄仁勋称为“差不多到头了”。这背后是英伟达战略的明显转变——从早期“砸钱换未来”的风险投资,转向更注重商业回报和长期生态控制的模式。

5吉瓦算力,专为OpenAI搭的“高速路”

这300亿不是白给的。作为协议核心,OpenAI将获得一套专属的算力基础设施:3吉瓦的推理能力,加上2吉瓦的训练能力,总计5吉瓦——这相当于同时运行数万个顶级AI服务器的电力规模。这些算力将全部基于英伟达下一代AI系统“Vera Rubin”构建,该系统预计2025年中开始部署,2026年全面铺开。

“Vera Rubin”不是普通服务器集群,它是英伟达专为大规模AI推理设计的全新架构,能效比比上一代H100提升近40%。这意味着OpenAI能在更低的成本下,支撑ChatGPT、GPT-5等模型每天数亿次的用户请求。业内知情人士透露,这套系统将部署在英伟达与OpenAI联合选址的北美数据中心,物理隔离、优先调度,连电力供应都单独接入电网主干。

OpenAI不把鸡蛋放在一个篮子里

尽管英伟达是OpenAI最大的算力供应商,但后者早已在悄悄“去英伟达化”。2024年下半年,OpenAI开始大规模采购亚马逊的Trainium和Inferentia芯片,用于处理非核心的客服、内容审核等推理任务。谷歌的TPU也仍在运行,主要用于内部实验性模型。

一位接近OpenAI的工程师透露:“我们不是不信任英伟达,而是不能把命脉交到一家手里。一旦芯片断供、价格暴涨,或者优先供应其他客户,我们的服务就可能瘫痪。”目前,OpenAI已形成“英伟达扛大头、亚马逊做补充、谷歌搞试验”的三线布局,算力采购成本因此下降了约15%。

英伟达的下一步:专为推理打造的“新芯片”

黄仁勋提到,英伟达正在研发一款“专门为推理优化”的新芯片,预计2025年底发布,代号“Blackwell Next”。这不是H100或B200的简单升级,而是彻底重构架构——减少训练用的FP64单元,增加推理专用的INT8和FP8核心,内存带宽提升50%,功耗却降低30%。

而OpenAI,几乎已被锁定为这款芯片的“首发客户”。知情人士称,OpenAI已提前支付了数亿美元的预付款,确保首批10万颗芯片优先交付。这背后是英伟达的算盘:当AI进入“人人用AI”的时代,推理需求远超训练,谁控制了推理芯片,谁就掌握了AI时代的“水电煤”。

这场合作,是共生,也是暗战

表面上,英伟达和OpenAI是“最佳拍档”:一个造芯片,一个用芯片跑模型,一起把AI推向全球。但私下里,双方都在为未来布局。

英伟达想借OpenAI的名气,把Vera Rubin和新推理芯片打造成行业标准;而OpenAI则在悄悄测试其他芯片的性能,甚至和微软合作开发自研AI加速器——虽然目前还在早期阶段,但已在内部立项。

黄仁勋说得没错:300亿是“最后一次”大手笔。但这不代表合作结束,而是从“投资关系”转向“商业合约”。未来,英伟达不再靠注资绑定OpenAI,而是靠性能、交付和独家服务留住它。而OpenAI,也不会再是英伟达的“独家客户”——它要的,是一个谁也拿不走的主动权。