AI算力狂飙,内存缺口将成全球科技瓶颈
戴尔科技集团首席执行官迈克尔·戴尔近日公开警告:全球AI加速器所需的内存,未来五年将出现史无前例的爆炸式增长。根据公司内部测算,到2028年,这一需求量将是2023年的625倍——不是增长6倍、60倍,而是整整625倍。这不是技术演进的常规曲线,而是一场近乎“断层式”的需求跃升。
这场风暴的根源,藏在两组数字背后。一方面,单颗AI芯片的内存容量正从2023年的80GB飙升至2028年的2TB,增长25倍;另一方面,全球数据中心部署的AI加速器数量也将同步增长25倍。这意味着,内存总需求不是线性叠加,而是25×25=625倍的乘积效应。简单说,未来每台AI服务器的“大脑”需要的内存,相当于现在数百台服务器的总和。
工厂建不快,芯片产不出
问题在于,内存芯片的产能根本追不上这个节奏。目前全球主要的DRAM和HBM(高带宽内存)厂商,产能扩张节奏明显滞后。一座新的存储芯片晶圆厂,从选址、审批、设备采购、安装调试到稳定量产,平均需要3到4年时间。而眼下,全球主要厂商如三星、SK海力士、美光,都在谨慎扩产——不是不想,而是不敢。
原因很现实:过去三年,存储行业经历了剧烈周期波动。2022年价格暴跌,厂商集体减产;2023年刚回暖,AI需求就突然冲天。企业不敢大举投资,怕重蹈覆辙。但AI算力竞赛已进入白热化阶段,英伟达、AMD、英特尔,以及中国、欧盟、日本等国的本土AI芯片计划,都在争抢有限的内存资源。
结果已经显现:HBM3内存的交货周期从去年的12周延长至如今的40周以上,部分订单甚至排到2025年底。价格也水涨船高,一块高端HBM3E芯片的成本,两年内上涨近三成。有业内人士透露,部分中国AI初创公司为了拿到芯片,不得不提前支付全款,甚至签订“不发货就赔款”的苛刻条款。
全球抢芯大战,谁先断粮谁出局
这场内存短缺,正在重塑全球科技格局。美国政府已将HBM列为“关键供应链风险”,并推动本土产能建设;欧盟启动“芯片法案”,拨款数十亿欧元扶持本地内存研发;中国则加快长江存储、长鑫存储的扩产步伐,试图突破“卡脖子”环节。
但现实是,即便所有国家齐力推进,2028年前的内存缺口仍难以填平。摩根士丹利近期报告指出,全球HBM产能在2027年之前将累计短缺超过40%。这意味着,即便你有钱买芯片,也可能买不到。那些依赖AI训练的科技巨头、云计算服务商、甚至自动驾驶公司,都可能面临“算力有余、内存不足”的尴尬局面。
这不是技术问题,而是供应链的结构性危机。2025年起,我们可能看到更多AI项目延期、云服务涨价、甚至部分AI应用因“缺内存”而被搁置。未来几年,谁能拿到足够的内存,谁就能在AI竞赛中跑在前面——而其他人,只能等。