亚马逊要卖芯片了?从“租算力”到“卖硬件”的大转折
亚马逊CEO安迪·贾西在最新年度股东信里抛出一个重磅消息:公司正认真考虑直接向外部客户出售自研芯片,不再只通过AWS“租”算力。这可不是小打小闹——亚马逊的自研芯片业务,年收入已经突破200亿美元。如果真卖芯片,这个数字有望在几年内冲上500亿。
过去十年,亚马逊的芯片策略一直很“低调”:Trainium和Inferentia这些芯片,只用在自家云服务器里,客户想用?可以,但得租AWS的实例。没人觉得这会变。但现在不一样了。客户排队等芯片,等得都快急了。有大客户直接找上门,说:“你们芯片性能不错,能不能卖我们几台整机?我们自己部署。”贾西在信里说,这种声音越来越多,已经不能忽视了。
芯片供不应求,订单排到2027年
不是市场没需求,是亚马逊自己产能跟不上。
Trainium 2,第二代AI训练芯片,比英伟达同级GPU便宜30%,效率还更高。结果?去年底就卖光了,连备用库存都没剩。现在客户想买?得排队等下一批。
Trainium 3,2026年初才出货,但预订量已经快到天花板了。更夸张的是Trainium 4——这芯片还没正式发布,距离上市还有18个月,但已经有大客户签了长期采购协议,提前锁定了产能。
不是客户疯了,是AI训练太烧芯片了。OpenAI、Anthropic、国内头部大模型公司,甚至一些传统银行和车企,都在疯狂加码训练自己的模型。英伟达的H100虽然强,但价格高、供货紧,还时不时被美国出口管制卡脖子。这时候,能稳定供货、性价比更高的替代品,就成了救命稻草。
不是要打英伟达,是要给客户多一个选择
贾西没说“我们要干掉英伟达”,但意思已经很明显了:我们不想再当“中间商”了。客户要的是算力,不是云服务的套餐。他们想要的是能自己掌控的硬件,能插在自己机房里,能按自己节奏升级,不用被AWS的定价和排期绑住。
亚马逊这次不是单纯卖芯片,而是卖“确定性”。你买英伟达的GPU,可能要等半年,还可能被限购;买亚马逊的芯片,你签了合同,产能是锁定的,交付有保障。这对企业来说,比单纯算力便宜更重要。
更关键的是,亚马逊的芯片不是“试水”。Trainium系列已经跑在AWS上三年,支撑了成千上万的AI训练任务,稳定性经得起检验。现在要做的,只是把这套成熟方案,从“云上”搬到“客户机房”。
2027年,亚马逊的电力要翻倍
要卖芯片,就得先有电。贾西在信里提到一个容易被忽略的细节:到2027年底,亚马逊计划把全球用于AI的电力容量翻一倍。这不是口号——亚马逊已经在北美、欧洲、亚洲大规模建设数据中心,光是今年,就在得州、弗吉尼亚、西班牙等地新增了数百万平方英尺的机房空间。
为什么这么拼?因为真正的竞争不在芯片设计,而在谁能更快把算力送到客户手里。谁的芯片能更快部署、更稳定运行、更少停机,谁就能赢得未来五年的AI基础设施市场。
这不是转型,是重新定义云的未来
亚马逊从卖书到卖云,已经改写过一次科技行业规则。现在,它正准备改写第二次:从“租服务器”变成“卖核心硬件”。
这背后是清晰的逻辑:当AI变成每个企业的刚需,光靠卖云服务已经不够了。客户要的是控制权、灵活性和供应链安全。亚马逊不是要和英伟达抢“芯片之王”的名号,而是要成为那个“让客户不靠英伟达也能跑AI”的人。
如果你是企业的CTO,你希望你的AI训练平台,依赖一家美国公司,还是能和你签长期协议、有自己数据中心、还能上门支持的亚马逊?
答案,可能正在改变整个AI硬件的格局。