最新消息:关注人工智能 AI赋能新媒体运营

Meta将部署数百万颗英伟达Blackwell GPU,合作登热搜

科技资讯 admin 浏览

NVIDIA与Meta达成千亿美元级深度合作,重塑AI基础设施

近日,NVIDIA正式宣布与Meta建立一项为期多年的战略合作伙伴关系,双方将在未来数年内共同打造全球规模最大、效率最高的AI算力体系。根据协议,Meta将在其遍布全球的AI数据中心中部署数百万颗NVIDIA Blackwell架构GPU,并提前布局下一代Rubin架构GPU——这款专为智能体(Agent)AI推理设计的芯片,预计将在2025年底至2026年投入商用,进一步提升Meta在生成式AI、社交内容推荐和虚拟现实交互等核心场景下的响应速度与能效。

此次合作的深度远超以往。除了GPU,Meta将首次大规模采用NVIDIA基于Arm架构的Grace CPU,作为AI训练与推理任务的高效协处理器。这是Grace系列芯片自发布以来,首次在如此大规模的独立生产环境中落地应用。业内消息人士透露,Meta正在测试将Grace CPU与Blackwell GPU组成“CPU+GPU”异构计算单元,以降低数据搬运延迟,提升整体系统吞吐量。这种组合在处理大规模语言模型推理时,可比传统x86方案减少高达30%的能耗。

双方技术团队已组建联合工作组,深入Meta位于美国、爱尔兰和新加坡的超大规模数据中心,针对真实业务负载进行全栈优化。从底层硬件互联、高速网络(NVIDIA Quantum-2 InfiniBand)、到AI训练框架(如PyTorch)、模型编译工具(TensorRT-LLM)和调度系统,均在进行定制化调优。这不仅是硬件采购,更是一次从芯片到软件的深度协同重构。

据知情人士透露,此次合作的总投资规模预计超过千亿美元,涵盖芯片采购、定制化服务器设计、数据中心扩建及长期技术服务支持。这将是科技史上规模最大的一次AI基础设施联合投资,远超此前谷歌与AMD、微软与NVIDIA的单笔采购规模。

值得一提的是,Meta计划将部分优化成果回馈开源社区。例如,针对Rubin架构的推理优化代码、与Grace CPU协同的内存管理方案,有望在2025年通过PyTorch和LlamaIndex等平台向开发者开放。这意味着,未来中小公司和研究机构也能间接受益于这场巨头之间的技术共建。

英伟达

市场分析认为,此次合作不仅巩固了NVIDIA在AI算力市场的绝对主导地位,也标志着Meta从“应用层创新”向“底层基础设施自主掌控”的战略转型。随着AI模型规模持续膨胀,单纯靠买芯片已无法满足需求——谁能掌控从芯片到软件的完整链条,谁就能在下一代AI竞争中掌握主动权。这场合作,或许正是未来十年AI基础设施的风向标。