最新消息:关注人工智能 AI赋能新媒体运营

英伟达发布Rubin加速平台:3nm工艺、3360亿晶体管,算力提升5倍

科技资讯 admin 浏览

英伟达发布“Vera Rubin”AI超算平台,重新定义算力边界

在GTC 2026年度大会上,英伟达创始人黄仁勋正式推出代号为“Vera Rubin”的下一代AI计算平台。这个名字致敬了20世纪杰出天文学家薇拉·鲁宾——正是她通过星系旋转曲线的观测,首次为暗物质的存在提供了关键证据。如今,英伟达以她的名字命名新平台,寓意着对未知算力边界的探索。

Rubin GPU基于台积电3纳米制程打造,晶体管数量达到3360亿,相比上一代Blackwell提升了超过60%。这不是简单的性能升级,而是架构层面的重构。新芯片采用“六芯协同”设计:一颗Vera CPU、两颗Rubin GPU、以及专用的AI调度与内存控制器,全部封装在单一超级芯片中。配合288GB HBM4高带宽内存,系统内存带宽突破22TB/s,远超当前行业平均水平。

芯片 科技 (2)

在实际性能上,Rubin平台的FP4推理算力达到50 PFLOPS,是Blackwell的五倍,而能效比更是提升了10倍。这意味着训练一个千亿级参数的混合专家模型(MoE),过去需要数百个Blackwell节点,现在可能只需不到三分之一的硬件,电力消耗也大幅下降。这对于正在大规模部署AI服务的云厂商来说,意味着成本结构的根本性变化。

更值得关注的是,英伟达同步公布了下一代产品Rubin Ultra的路线图,预计2027年推出。其NVL576系统将整合576颗Rubin Ultra芯片,理论推理算力有望突破15 ExaFLOPS——相当于全球最顶尖超算中心的总和。这一数字并非实验室数据,而是为未来五年AI模型的规模增长提前铺路。

巨头抢订,订单规模破万亿美元

黄仁勋在现场透露,Rubin平台已进入量产阶段,首批系统将于2026年下半年交付亚马逊AWS、谷歌云和微软Azure。这三家云服务商已提前锁定产能,部分订单甚至在芯片流片前就已敲定。据知情人士透露,仅AWS一家就预订了超过20万片Rubin芯片,用于支撑其下一代AI助手和视频生成服务。

目前,英伟达已累计获得Blackwell与Rubin两大架构的订单总额超过1万亿美元,是2025年初预测值的两倍。这一数字不仅反映了市场需求的爆发,更说明企业正在从“试用AI”转向“依赖AI”运营。无论是金融风控、药物研发,还是自动驾驶仿真,客户不再把AI当作工具,而是作为核心基础设施。

从数据中心到近地轨道:AI基础设施的全面扩张

英伟达的野心不止于地面。随着卫星互联网和边缘AI需求上升,公司已开始与SpaceX、OneWeb等企业合作,测试基于Rubin架构的轻量化AI模块在低轨卫星上的运行能力。目标是让卫星在轨实时处理图像、识别异常,无需回传数据到地面——这将极大提升灾害响应、农业监测和国防侦察的效率。

与此同时,英伟达开源了“OpenClaw”智能体框架,允许开发者自由组合模型、工具与记忆模块,构建自主运行的AI代理。配合此前收购Groq后整合的LPU(语言处理单元)产品线,英伟达正在构建一个开放但高度协同的生态:硬件由英伟达提供,软件由开发者扩展,应用场景由企业定义。

过去,人们谈论AI芯片,关注的是算力数字;如今,关注的是它如何改变企业的运营节奏。Rubin不是一款新显卡,而是一套新的“AI操作系统”底层。它让训练模型从“季度级”变成“周级”,让推理服务从“昂贵奢侈品”变成“可规模化的水电服务”。

黄仁勋在演讲最后说:“我们不再卖芯片,我们卖的是时间。”——这句话,或许才是这场发布会真正的核心。