最新消息:关注人工智能 AI赋能新媒体运营

Cerebras拟IPO,与OpenAI达成200亿美元芯片协议

科技资讯 admin 浏览

OpenAI 与 Cerebras 达成史上最大 AI 芯片合作,估值超 350 亿美元

就在本周,AI 芯片公司 Cerebras 宣布与 OpenAI 达成一项规模空前的合作协议——总交易额超过 200 亿美元,合作期限为三年。这一数字是今年初双方 7.5 亿美元部署协议的近三倍,标志着全球最顶尖的 AI 实验室正将赌注押在 Cerebras 独特的晶圆级芯片技术上。

不同于普通的采购合同,OpenAI 不仅是客户,更是深度参与者。作为协议的一部分,OpenAI 将直接注资约 10 亿美元,用于支持 Cerebras 构建下一代 AI 计算数据中心。这笔资金将直接用于硬件升级、散热系统优化和网络架构重构,确保 Cerebras 的芯片能在真实世界的大模型训练中持续稳定运行。同时,OpenAI 将获得 Cerebras 的认股权证,最高可持有公司 10% 的股份——这在科技行业极为罕见,意味着 OpenAI 正从“买方”转变为“合伙人”。

Cerebras 的 IPO 计划浮出水面,目标融资 30 亿美元

就在合作官宣的同时,Cerebras 正在秘密筹备首次公开募股(IPO)。据知情人士透露,公司计划以超过 350 亿美元的估值登陆资本市场,目标募资金额约为 30 亿美元。这一估值已超过许多老牌半导体企业,也远高于去年市场对其 100 亿美元左右的预估。

若成功上市,Cerebras 将成为自 2021 年以来全球规模最大的 AI 硬件公司 IPO,甚至可能超越英伟达在 2016 年上市时的规模。目前,公司已与高盛、摩根士丹利等顶级投行展开接洽,拟在 2025 年上半年择机挂牌,地点可能选在纳斯达克。

为什么这块芯片值得 350 亿美元?

Cerebras 的核心产品是世界上最大的单芯片——Wafer Scale Engine(WSE)。它不是由多个小芯片拼接而成,而是直接用一块 30 厘米见方的硅晶圆制造,集成超过 2.6 万亿个晶体管,比任何 GPU 集成度高出百倍。

这意味着什么?在训练像 GPT-4 这样的大模型时,传统 GPU 需要成千上万块互联,数据在芯片间来回搬运,效率低下、能耗惊人。而 Cerebras 的芯片把整个模型“装进一块芯片里”,省去了通信瓶颈,训练速度提升 3–5 倍,能耗降低近 40%。

据《华尔街日报》援引内部数据,OpenAI 已在其多个关键模型训练中使用了 Cerebras 系统,包括 GPT-4o 的早期版本。一位匿名工程师透露:“我们过去需要两周跑完的实验,现在三天就能出结果。这不只是快一点,是改变了研发节奏。”

不只是技术,更是战略卡位

这场合作的背后,是 AI 行业权力结构的悄然变化。过去,英伟达凭借 GPU 垄断了整个 AI 硬件市场。但现在,OpenAI 不再甘心当“纯软件玩家”——它需要掌控算力命脉。通过投资 Cerebras,OpenAI 实现了三重目标:锁定稀缺算力、降低长期采购成本、参与技术路线决策。

与此同时,Cerebras 也正从一家“小众技术公司”转型为行业基础设施提供者。除了 OpenAI,它已与微软、Anthropic、Meta 等多家巨头达成合作,客户名单正在快速扩容。有分析师指出,如果 Cerebras 的芯片能在 2025 年实现量产翻倍,其市场占有率有望在三年内突破 15%,成为英伟达之外的“第二极”。

未来已来,但路还很长

当然,挑战依然存在。Cerebras 的芯片成本高昂,对数据中心的电力、冷却、空间要求远超传统方案。目前全球能部署它的机房不超过 20 个。此外,英伟达正加速推出 H200 和下一代 Blackwell 架构,试图用软件生态和生态绑定稳住市场。

但有一点毋庸置疑:当 OpenAI 愿意掏出 10 亿美元换一个股权席位,当一家芯片公司敢以 350 亿美元估值冲刺 IPO,这说明 AI 的底层硬件战争,已经从“能不能跑”变成了“谁跑得更快、更稳、更便宜”。

Cerebras 不是唯一的选择,但它可能是最激进的那个。而 OpenAI,正在用真金白银,为未来十年的 AI 算力投票。