Meta于周二(4月14日)宣布与博通(Broadcom)扩大合作,双方将共同开发多代自研AI芯片MTIA(Meta训练与推理加速器),并整合芯片设计、先进封装与高速网络技术,打造可扩展至多GW级别的AI算力基础设施,表明Meta正将自研芯片提升为核心算力战略,逐步降低对外部GPU的依赖。
Meta在AI算力布局上采取多轨策略,一方面依赖外部GPU与云资源,另一方面与博通合作投入自研MTIA芯片,在不同AI工作负载中选择最合适的加速器,以在性能与总体拥有成本之间实现最佳平衡。
根据双方公布的规划,此次合作涵盖芯片开发、系统架构与大规模部署等多个层面。双方将共同开发多代MTIA芯片,覆盖推理与生成式AI等负载,并采用先进制程(如2纳米),以提升性能与能效比。除芯片外,合作还延伸至先进封装与高速网络,通过博通的以太网与XPU平台,构建支持大规模计算集群的低延迟、高带宽架构。
整体系统将以GW级别部署为目标,从初期超过1GW起步,逐步扩展至多GW规模。该合作预计持续至2029年,旨在支撑Meta在WhatsApp、Instagram与Threads等平台上的生成式AI与推荐系统运行。
博通表示,双方的合作将基于其XPU(定制化加速器)平台,协助Meta协同设计多代MTIA芯片,整合芯片逻辑、内存与高速I/O,以满足不同代际的AI运算需求。博通还将提供以太网、交换机、光通信与高速互连等技术,用于构建支持大规模AI计算集群的网络架构,确保在高负载场景下仍能维持低延迟与高带宽的数据传输能力。
博通是AI基础设施的关键供应商,提供定制化芯片与高速网络技术,长期参与谷歌自研AI芯片TPU的开发,同时也是OpenAI与Anthropic的合作伙伴。此次进一步深化与Meta的合作,曾任Meta董事的博通首席执行官Hock Tan也将转任顾问,协助规划定制化芯片的发展蓝图。