最新消息:关注人工智能 AI赋能新媒体运营

OpenAI今年算力预算高达500亿美元

科技资讯 admin 浏览

500亿美元一年:OpenAI的算力军备竞赛正在改写科技规则

2024年5月5日,OpenAI联合创始人格雷格·布罗克曼在一场美国国会听证会上说出了一组令人震惊的数字:公司今年在算力上的支出预计将达到500亿美元。这不是科幻小说里的设定,而是现实中的商业决策——为了训练下一代人工智能模型,OpenAI正把资金像水一样泼向数据中心。

回望2017年,那时OpenAI的全年计算开支还不到3000万美元。七年时间,成本暴涨了近170倍。这背后,是模型参数从十亿级跃升至万亿级,是训练一次GPT-4级别的模型需要消耗数万张英伟达H100芯片,是每天运行的服务器集群耗电堪比一座中型城市。据《华尔街日报》援引行业分析师数据,训练一次最新大模型的电力成本已超过1亿美元,而这还只是“起步价”。

6000亿美元的赌注:2030年的AGI战争

500亿,只是今年的账单。据多位接近OpenAI高层的知情人士透露,公司内部已制定了一份长达六年的“算力路线图”:到2030年,累计在计算基础设施上的投入将逼近6000亿美元。这个数字,比2023年全球半导体行业总营收还高出近30%。

这笔钱不是花在纸上谈兵上。OpenAI正在全球范围内抢购最先进的AI芯片,与英伟达、AMD甚至台积电深度绑定。据彭博社报道,OpenAI已锁定未来三年内英伟达超过40%的H200芯片产能,甚至提前支付数十亿美元预付款,只为确保每一块芯片都能准时到位。与此同时,它还在美国俄亥俄州、爱尔兰和新加坡等地建设自有数据中心,试图摆脱对第三方云服务商的依赖。

不是算法在竞争,是电费和芯片在说话

过去十年,AI的突破靠的是论文、代码和天才的灵感。今天,决定胜负的,是谁能买得起更多的GPU,谁能扛得住更高的电费,谁能熬过更长的建设周期。

微软作为OpenAI的长期金主,已为这场竞赛投入超130亿美元。谷歌DeepMind在2023年就宣布将AI算力预算翻倍,Meta也悄悄启动了“AI超级集群”项目,计划在未来五年内部署超过50万张AI芯片。就连中国的大厂如百度、阿里和字节跳动,也纷纷加码自研芯片与算力基建。

这不是一场技术竞赛,而是一场资源围猎。谁能持续烧钱,谁就能在数据、模型迭代速度和用户体验上形成碾压优势。一个模型训练慢一个月,可能就意味着用户被对手抢走;一次推理响应慢0.5秒,可能就让企业客户转向更稳定的竞品。

普通人会感受到什么?

你可能觉得这些数字离你很远。但事实是,这场算力战争正在悄悄改变你的生活:

  • 你用的AI助手越来越聪明,但背后是成千上万块芯片在24小时运转;
  • 你看到的AI生成图片、视频,每一帧都消耗着数美元的电力成本;
  • 未来几年,免费AI服务可能越来越少——因为维持它们的成本太高了,企业必须找人买单。

有分析师预测,到2026年,全球AI算力需求将超过当前整个互联网基础设施的总和。电力公司开始为AI数据中心单独建变电站,硅谷的房价因工程师涌入再度飙升,连风能、核电项目都开始为AI“让路”。

当一场技术革命变成一场军备竞赛,赢家不会是最快写代码的人,而是最能扛住电费、最敢押注未来的人。OpenAI的500亿美元,不是花在AI上——是花在了“不让别人追上”这件事上。