Meta 正悄悄打造自己的 AI 芯片帝国
当全世界都在盯着英伟达的 H100 和 B100 芯片时,Meta 已经在自家数据中心里,悄悄部署了成千上万块自己设计的芯片。这不是噱头,也不是未来计划——而是正在发生的现实。为了不再被一家公司卡住脖子,Meta 正在以惊人的速度推进自研 AI 芯片,目标是在 2027 年底前,完成四代自研芯片的全面落地。
目前,Meta 的第一代自研 AI 芯片 MTIA 300 已经在 Instagram 和 Facebook 的推荐系统中大规模运行。它不追求通用性能,专为“猜你喜欢”这种任务优化——处理用户滑动、点击、停留时间这些海量数据时,效率比通用 GPU 高出 40% 以上。工程师们说,它不是“最好的芯片”,但“最懂我们的业务”。
第二代芯片 MTIA 400,代号“艾瑞斯”,已经从实验室搬进了生产机房。它能同时处理推荐系统和轻量级生成式 AI,比如自动生成帖子摘要、智能回复评论。而接下来的 MTIA 450(代号“阿尔克”)和 MTIA 500(代号“阿斯特丽德”),将直接面向视频生成、实时语音合成这类更重的负载。按照时间表,2027 年上半年,Meta 的数据中心将开始用上“阿尔克”,年底则全面换上“阿斯特丽德”。
不是要取代英伟达,而是要省下几十亿美元
别误会,Meta 没有打算一夜之间甩掉英伟达。恰恰相反,他们仍是全球最大的 GPU 买家之一。2023 年,Meta 一口气采购了超过 30 万张 H100,2024 年又追加了数十亿美元的订单。但这些芯片,主要用于训练大模型、跑实验、处理突发流量——是“主力部队”。
而自研芯片,是“特种部队”。它们不干重活,专挑那些重复、高频、标准化的任务:比如,每天 200 亿次的图片排序、150 亿次的广告投放决策、数以亿计的评论过滤。这些事,用 GPU 做太贵,用 CPU 又太慢。MTIA 芯片就是为这些“脏活累活”量身定制的。
据内部人士透露,每一块 MTIA 芯片的运营成本,比同等算力的 GPU 低 30% 到 50%。按 Meta 每年数百万块芯片的规模计算,这相当于每年省下 20 亿到 30 亿美元的电费和采购费。这笔钱,足够再买一整个 AI 超算中心。
收购一家芯片初创,只为了 30 个工程师
2023 年,Meta 低调收购了硅谷初创公司 Rivos。这家公司没名气,没产品,但有 30 多个曾在苹果、高通、谷歌做过芯片设计的工程师。Meta 付了数亿美元,只为把他们挖过来。
这不是孤例。过去三年,Meta 在芯片团队上的投入超过 50 亿美元,招聘了超过 1500 名硬件工程师,遍布硅谷、西雅图、奥斯汀,甚至远到以色列和印度。他们不搞“闭门造车”,而是把芯片设计、软件栈、数据中心运维全打通——从电路图到服务器机柜,全都由同一支团队负责。
“我们不需要做最牛的芯片,”一位参与 MTIA 项目的老工程师说,“我们只需要做‘刚好够用、便宜、稳定、能持续迭代’的芯片。”
真正的护城河,不在芯片,而在节奏
芯片研发周期长、风险高,但 Meta 的优势在于:它每天都在用。Instagram 每天有 20 亿活跃用户,每个滑动、点赞、转发,都是对芯片的实战测试。反馈从用户行为到芯片功耗,24 小时内就能回流到设计团队。
这种“用中改、改中用”的节奏,是任何一家外部芯片厂商都做不到的。英伟达的芯片要卖给全球客户,必须通用;而 Meta 的芯片,只服务自己的场景——越用越准,越改越狠。
2027 年,当 Meta 的四代自研芯片全部上线,他们的数据中心将不再依赖单一供应商。这不是为了“对抗”谁,而是为了掌握自己的命运。在 AI 算力变成水电一样的基础设施时代,谁控制了底层硬件,谁就掌握了成本和速度的主动权。
Meta 不是第一个这么做的——亚马逊、谷歌、微软早就在干。但 Meta 的特别之处在于:它没有云服务可卖,它的全部价值,就藏在那一个个推荐流、一条条动态、一段段视频里。而让这些内容跑得更快、更便宜、更稳定,就是它活下去的命。