最新消息:关注人工智能 AI赋能新媒体运营

Meta自研AI芯片,突破算力瓶颈告别“打工人”

科技资讯 admin 浏览

Meta 不只买芯片,更在亲手造芯片

尽管去年刚和英伟达签了价值数十亿美元的AI芯片大单,又跟AMD敲定了下一代GPU供应协议,Meta却没打算躺在供应商的肩膀上睡觉。公司首席财务官苏珊·李在3月初的摩根士丹利科技大会上明确表示:我们不是在“备选方案”里挑芯片,我们是在造自己的芯片。

这不是口号。早在2020年,Meta就悄悄组建了芯片团队,从零开始设计AI加速器。第一批成果是用于推荐系统和内容排序的定制芯片——LlamaChip,已经在全球几十个数据中心跑起来了。这些芯片不是炫技,是实打实省钱:同样的推荐任务,用自研芯片比买英伟达A100省了近40%的能耗,运维成本也降了下来。

现在,他们把目标对准了更难啃的骨头:训练下一代大模型。不是“未来五年再说”,而是已经在实验室里跑通了原型。据知情人士透露,Meta内部代号为“Project Atlas”的训练芯片,已能处理1000亿参数级别的模型训练任务,虽然还没到量产阶段,但测试数据比当前市售方案在特定任务上快了15%~20%。

不甩掉英伟达,但也不再被牵着鼻子走

有人问:你都自己造芯片了,还买英伟达干嘛?苏珊·李的回答很实在:“我们不是要取代谁,是要有选择权。”

Meta目前在全球运营着超过30个超大规模数据中心,每天处理的AI推理请求超过2000亿次。光靠自研芯片,短期内根本撑不住这种规模。所以他们的策略很清晰:推荐、广告、内容审核这类重复性高的任务,用自家芯片;大模型训练、复杂推理,还是靠英伟达和AMD的成熟方案。但关键是——现在他们能说了算。

过去,一家公司想买H100,得排队、加价、接受供货限制。现在,Meta手里有自研芯片的路线图,谈判桌上腰板硬了。2023年,他们不仅谈下了更长的供货周期,还拿到了定制化固件支持——这在过去是不可想象的。

省钱只是开始,掌握底层才有未来

Meta的野心,不在省几千万电费。他们想控制的是AI时代的“操作系统”。

你用的Instagram推荐、Facebook动态排序、Threads的内容过滤,背后都是AI在跑。如果这些逻辑的算力基础,永远依赖别人家的芯片架构,那你的产品迭代速度、隐私设计、甚至功能创新,都得看供应商脸色。

举个例子:Meta正在开发的“端侧AI”功能——比如手机上实时翻译、离线图像生成——需要芯片能同时处理视觉、语音、语义理解。英伟达的通用芯片不是不能做,但为了适配所有客户,它得保留大量冗余功能。而Meta的定制芯片,可以砍掉80%用不上的模块,专为自己的模型优化,功耗更低、响应更快。

更关键的是,当别人还在用CUDA生态时,Meta已经在用自家的“PyTorch + 自研编译器”打通软硬件。这意味着,未来他们训练一个新模型,不用等英伟达更新驱动,自己就能调优。这种控制力,才是真正的护城河。

不只是Meta,大厂都在悄悄换赛道

你可能不知道,谷歌的TPU、亚马逊的Trainium、微软的Maia,都在干同样的事。这不是“科技公司炫技”,而是AI时代的新生存法则:

  • 2024年,全球AI芯片采购额预计超800亿美元,其中超20%来自互联网巨头自研。
  • 据Counterpoint数据,英伟达在AI训练芯片市场仍占90%以上份额,但Meta、谷歌、亚马逊的自研芯片已开始蚕食其“非核心场景”订单。
  • 华尔街分析师普遍认为,未来三年,能自研AI芯片的科技公司,利润率将比纯采购者高出15%~25%。

Meta不是第一个,但可能是最坚决的那个。他们不靠融资讲故事,而是用数据中心的电费单、用推荐系统的响应速度、用模型训练的周期时间,一点点证明:

真正的AI主导权,不在显卡包装盒上,而在你亲手设计的硅片里。