OpenAI不再依赖英伟达?三星、博通、台积电联手打造“星门”芯片
为了彻底摆脱对英伟达GPU的依赖,OpenAI正秘密推进一项代号为“星门”(Stargate)的自研AI芯片计划,而这场硬件革命的核心伙伴,不是硅谷的科技巨头,而是来自韩国的半导体巨头——三星电子。
据《韩国经济日报》最新披露,三星已确认将为OpenAI供应下一代高带宽内存HBM4芯片。这批芯片将直接用于OpenAI首款自研AI处理器,标志着这家以ChatGPT闻名的公司,正从纯粹的软件和算法公司,转向掌控底层算力的硬件玩家。
“星门项目”:一场沉默的算力突围
这不是一次简单的采购,而是一场有预谋的系统性脱钩。自2023年起,OpenAI就与三星签署了非公开的意向协议,为“星门项目”铺路。随着GPT-5、o1等下一代模型参数规模逼近万亿级,传统HBM3内存的带宽和功耗已难以支撑。HBM4的出现,正是为了解决这一瓶颈——其单颗带宽提升近50%,能效比也大幅优化。
知情人士透露,OpenAI的芯片设计并非完全自研,而是与博通深度合作。博通擅长高速接口与片上网络架构,而OpenAI提供AI训练场景的底层需求,双方共同定义了这款芯片的指令集和内存访问模式。至于生产,则交给了全球最成熟的代工厂——台积电。芯片将采用3nm或更先进制程,预计2025年第三季度进入量产,2026年底正式上线。
三星的野心:同时押注OpenAI与AMD
三星的布局远不止于OpenAI。就在本周,三星宣布与AMD签署战略合作备忘录,将成为其下一代AI GPU(代号“CDNA 4”)的独家HBM4供应商。这意味着,未来两年内,全球两大AI算力阵营——OpenAI的自研芯片与AMD的AI显卡——都将依赖三星的存储方案。
这一策略让三星在AI内存市场形成“双核驱动”:一边是OpenAI这种垂直整合的科技巨头,一边是AMD这样的传统硬件厂商。当HBM4成为AI训练的“生命线”,三星实际上握住了通往未来AI算力的钥匙。
2026年,AI算力格局或将重写
目前,全球90%以上的AI训练芯片仍依赖英伟达的H100和下一代B100,而HBM内存几乎全部由三星和SK海力士供应。但OpenAI一旦成功推出自研芯片,配合HBM4的极致带宽,其训练效率和成本可能远超现有方案。
有分析师指出,如果OpenAI的芯片能在2026年实现每美元训练成本降低30%以上,将直接动摇英伟达的护城河。而三星,作为唯一同时服务OpenAI和AMD的HBM4供应商,已悄然成为这场变革的最大受益者。
值得关注的是,苹果、谷歌、微软等公司也在秘密推进自研AI芯片,但至今没有一家公开确认与三星达成HBM4合作。OpenAI与三星的绑定,可能是AI行业首次出现“软件+硬件+存储”三方深度协同的完整链条。
2026年,当OpenAI的自研芯片正式上线,我们或许会看到一个不再由英伟达主导的AI时代——而它的起点,是一批来自韩国的内存芯片。