OpenAI砸300亿美元押注Cerebras:一场改变AI算力格局的豪赌
据最新消息,OpenAI已与芯片初创公司Cerebras达成一项规模空前的长期合作:未来三年,OpenAI将向Cerebras支付超过200亿美元,用于采购其专用AI服务器算力,加上此前1月已确认的100亿美元采购协议,总投入或将突破300亿美元。这不仅是AI行业有史以来最大的一笔算力采购交易,更是一场对下一代AI基础设施的孤注一掷。
这笔交易远不止是“买芯片”。作为交换,OpenAI将获得Cerebras的认股权证,初期持股比例虽未公开,但明确表示:随着采购金额增加,OpenAI可逐步增持,最高可达10%。这意味着,OpenAI正从“客户”转变为“战略股东”——它不再只是花钱买算力,而是在亲手塑造未来AI的算力根基。
Cerebras的芯片技术极为独特。它不走传统芯片“堆小核”的路子,而是把整个晶圆(wafer)直接做成一颗芯片——单颗芯片面积达46,225平方毫米,是目前最大GPU的近50倍。这种“晶圆级引擎”(WSE)能将数千个AI核心集成在一块芯片上,大幅降低数据传输延迟,特别适合大模型推理。OpenAI CEO山姆·奥特曼早在2019年就以个人身份投资Cerebras,如今他领导的公司用真金白银为这项技术背书。
为什么是Cerebras?背后是AI推理的“算力饥荒”
过去一年,AI模型从训练转向推理的拐点已至。GPT-4o、Claude 3.5、Gemini 2.0等模型上线后,用户请求量激增,推理成本已占AI企业总支出的70%以上。传统GPU集群在处理高并发请求时,网络延迟、数据搬运、散热瓶颈等问题日益突出。而Cerebras的芯片,单台服务器就能替代数十台英伟达H100集群,能耗降低40%,部署效率提升数倍。
据行业分析师估计,OpenAI当前每月推理支出已超5亿美元,且还在以每月20%的速度增长。如果继续依赖英伟达,不仅价格昂贵,还面临供应瓶颈。而Cerebras的系统,能让OpenAI在自家数据中心里“自给自足”——这正是它不惜重金绑定这家初创公司的根本原因。
Cerebras冲刺IPO:350亿美元估值背后的野心
这场交易对Cerebras而言,是上市前的最后一块拼图。公司计划于今年第二季度正式递交IPO申请,目前已启动新一轮30亿美元融资,投后估值逼近350亿美元。一旦成功,它将成为继英伟达之后,全球最值钱的AI芯片公司。
但风险同样巨大。Cerebras至今尚未实现盈利,其技术尚未被大规模商用。如果OpenAI的采购承诺无法兑现,或市场对推理算力需求放缓,Cerebras的估值可能面临重估。不过,有知情人士透露,已有包括软银、红杉资本在内的多家顶级机构,正在排队参与本轮投资,市场信心正在凝聚。
更值得关注的是,OpenAI的深度介入,可能改变整个AI硬件生态。如果Cerebras成功,未来其他大厂如谷歌、Meta、Anthropic,或将纷纷效仿——不是去买芯片,而是去“投资芯片公司”。AI的竞争,已从模型参数,转向了底层算力的控制权。
山姆·奥特曼的算力版图:从投资到控股
奥特曼从2019年个人投资Cerebras,到如今代表OpenAI投入300亿美元,这不仅是商业决策,更是一场战略远征。他曾在采访中坦言:“我们不是在买服务器,我们是在买未来十年AI的基础设施。”
目前,OpenAI已与英伟达、AMD、台积电、超微等多家巨头建立合作关系,但Cerebras是唯一一家能提供“端到端自主算力”的选择。一旦Cerebras芯片被证明稳定可靠,OpenAI或将逐步减少对英伟达的依赖,甚至在未来推出自己的AI推理云服务,直接挑战AWS和Azure。
周五,Cerebras将公布协议细节。届时,我们或许将看到更多惊人数据:比如单台Cerebras系统能支撑多少个GPT-4级别的模型并发?每小时推理成本降低多少?这些数字,将决定这场300亿美元豪赌,究竟是AI的里程碑,还是一场昂贵的试错。