最新消息:关注人工智能 AI赋能新媒体运营

Cerebras获10亿美元H轮投资,4个月估值翻近两倍

科技资讯 admin 浏览

Cerebras 完成10亿美元融资,估值飙至230亿美元

全球AI芯片领域再起波澜。专注于晶圆级AI推理芯片的Cerebras,正式宣布完成10亿美元的H轮融资。本轮由Tiger Global领投,AMD作为战略投资者首次直接注资。融资完成后,公司估值一举突破230亿美元,较四个月前G轮结束时的81亿美元,涨幅近185%——这是近年来半导体行业罕见的估值跃升。

为什么市场如此看好Cerebras?

Cerebras 的核心优势,不在传统芯片的“小而密”,而在“大到离谱”。它的WSE(Wafer Scale Engine)芯片,是全球唯一以整片晶圆为单位制造的AI处理器,面积高达46,225平方毫米,包含超过2.6万亿个晶体管。这种设计彻底跳出了传统芯片的封装限制,让单颗芯片就能承载千亿级参数模型的推理负载,功耗却远低于由数百颗GPU拼成的集群。

这种“暴力美学”正被头部AI公司验证。早在2023年,Cerebras就与OpenAI达成多年合作,为后者提供专用推理算力,支撑其大模型在真实场景中的低延迟响应。据知情人士透露,OpenAI部分非训练类推理任务(如客服、内容生成、多模态理解)已稳定运行在Cerebras系统上,效率提升30%以上,运营成本下降近40%。

AMD的入场,意味着什么?

AMD作为全球第二大GPU厂商,此前从未直接投资过Cerebras这样的竞争对手。此次战略注资,不仅是资金支持,更是一次技术协同的信号。业内分析认为,双方可能在系统级优化、软件栈兼容、甚至未来联合开发异构计算平台方面展开深度合作。AMD的加入,让Cerebras从“单打独斗”的初创企业,一夜之间获得了与英伟达正面抗衡的生态背书。

英伟达的压力,正在变成机会

当英伟达的H100和B200芯片仍占据AI算力市场九成份额时,客户开始意识到:过度依赖单一供应商,不仅成本高,还面临供应风险。Cerebras的出现,提供了一条“非NVIDIA路径”。尤其在推理端,其系统无需复杂的分布式调度,部署更简单,维护成本更低,对云服务商和企业级客户极具吸引力。

据Gartner最新报告,2025年全球AI推理芯片市场规模将突破500亿美元,年复合增长率超40%。而Cerebras已与多家全球顶级云服务商和金融、医疗AI企业签署试点协议,预计2025年下半年将实现规模化交付。

不只是芯片,是整套AI算力方案

Cerebras不再只是卖芯片。它正推出“Cerebras Cloud”服务,让客户无需自建机房,直接通过云端调用其晶圆级算力。这种“算力即服务”的模式,正吸引大量中小企业和研究机构入场。相比租用英伟达GPU集群动辄数万美元/月的费用,Cerebras的定价更具弹性,且支持按推理请求计费——这在AI应用爆发的今天,是真正的降本利器。

未来:230亿不是终点

从81亿到230亿,Cerebras用四个月时间证明:在AI算力的下半场,真正的颠覆者不是重复旧模式的人,而是敢于把整片晶圆做成一颗芯片的疯子。随着更多客户落地、AMD深度协同、以及全球对去英伟达化的需求升温,这家总部位于加州的公司,正在悄然改写AI算力的权力格局。