亚马逊要卖AI芯片了,这次直接冲着英伟达去
4月9日,亚马逊CEO安迪·贾西在内部会议上透露,公司正在认真考虑一项重大调整:未来将不再只把自研AI芯片当作云服务的“内部工具”,而是直接对外销售Trainium系列芯片和配套机架,面向任何需要算力的企业——包括那些用着英伟达GPU的客户。
这不是小打小闹。过去几年,亚马逊的Trainium芯片主要藏在AWS后台,给自家云客户跑模型用。现在,他们决定把这套硬件搬上货架,明码标价,和英伟达正面竞争。
从“租算力”到“卖芯片”,生意模式彻底变了
以前,客户想用Trainium,得先买AWS的云服务,按小时付费。现在,亚马逊可能让你直接买芯片,自己搭服务器、自己部署。这就像苹果不再只卖iPhone,还开始卖A系列芯片给其他厂商。
据知情人士透露,如果这项业务全面开放,亚马逊AI芯片部门的年收入有望从目前的200亿美元,飙升到500亿美元。这个数字,已经接近英伟达数据中心业务去年一半的规模。
关键不是规模,而是性价比。Trainium2的实际使用成本比同级别英伟达H100低约30%,而且在训练大模型时表现稳定。更关键的是,还没正式发货的Trainium3,预订量已经接近满产——不是亚马逊内部预订,而是来自外部客户的直接订单。
有初创公司工程师告诉媒体:“我们本来在等H200,但听说Trainium3性能不输,价格低三成,还支持本地部署,我们直接改了采购计划。”
为什么现在出手?背后是三年的憋屈
2021年,亚马逊开始自研Trainium,初衷很简单:英伟达的GPU太贵,供货太慢。
那几年,AWS为了满足客户对AI算力的需求,砸了上百亿美元买GPU,但经常等上几个月才到货。有些客户甚至因为等不到芯片,被迫推迟产品上线。
“我们不是不想用英伟达,是用不起、等不起。”一位前AWS架构师说。
于是,亚马逊悄悄投了几十亿美元研发芯片,同时自建封装测试产线,和台积电深度绑定,甚至开始设计自己的机架电源和散热方案。他们不是在做“备用方案”,而是在打造一套能独立运转的AI基础设施。
现在,他们觉得时机到了:芯片性能达标了,供应链稳了,客户也等不及了。
市场在等一个“不选英伟达”的理由
全球AI算力市场,英伟达占了超过90%。但没人真的喜欢这种垄断。
中国企业、欧洲研究机构、甚至一些美国大厂,私下都在找替代方案。有人买AMD,有人用英特尔Gaudi,但真正能跑通生产级大模型、有完整软件栈支持的,只有英伟达。
Trainium的出现,第一次让“不选英伟达”变得现实。它不靠噱头,靠的是:
- 实打实的训练效率(Llama 3、Mixtral等模型实测数据已内部验证)
- 能和PyTorch、TensorFlow无缝对接,无需重写代码
- 提供完整的硬件+软件+服务支持包,不是只卖一颗芯片
有分析师指出,如果亚马逊明年正式开放销售,首批客户很可能是:
- 中国和印度的AI初创公司(预算有限,但需求迫切)
- 欧洲的科研机构(受数据主权和供应链安全驱动)
- 大型金融机构(对合规和成本极度敏感)
不只是卖芯片,是在重建AI的“基础设施”
亚马逊的野心,从来不是做一颗“更好的GPU”。
他们想重建整个AI算力的底层逻辑:从芯片、机架、网络、到训练平台、模型优化工具,全部自己掌控。这样,他们就能把云服务的成本压得更低,同时把客户“锁”在自己的生态里。
你买他们的芯片,就得用他们的存储、他们的网络、他们的模型压缩工具。这和苹果的“软硬一体”逻辑一模一样。
而这一次,他们不再躲在云服务背后。他们站出来,直接对你说:“你不用非得买英伟达。”
英伟达会慌吗?市场已经在动了
消息公布后,英伟达股价当日微跌1.7%。这不是恐慌,是警报。
华尔街分析师在报告中写道:“亚马逊是唯一有规模、有技术、有耐心,能把芯片卖到全球的云厂商。”
而现实是,很多客户已经不再把“有没有英伟达”当成选择云服务商的唯一标准。他们开始问:“你们有没有自己的芯片?能不能本地部署?价格是多少?”
亚马逊不是第一个做自研芯片的云厂商——微软有Maia,谷歌有TPU——但只有亚马逊,把这条路走到了“公开售卖”的阶段。
未来两年,AI算力市场会变得不一样
想象一下:2025年,一家中国AI公司,不用再盯着英伟达的供货排期。他们可以在亚马逊官网下单Trainium3芯片,两周内到货,附带全套部署指南和技术支持。
这不只是多了一个选择。这意味着,AI算力的门槛,正在被打破。
安迪·贾西没说“我们要打败英伟达”。但他用行动说:我们不需要等你,我们自己能做。
当一家公司不再只是“买芯片最多的人”,而是变成“卖芯片最狠的人”时,游戏规则,就真的变了。