亚马逊的“两边下注”:为什么它同时投资OpenAI和Anthropic
最近,亚马逊云服务(AWS)CEO马特·加曼在旧金山的HumanX大会上说了一番让不少人愣住的话:尽管亚马逊刚刚向OpenAI投入了500亿美元,又早在几年前就和Anthropic签了80亿美元的合作协议,但这两家AI公司,其实是亚马逊的“合作伙伴”,而不是“对手”。
这话听起来有点矛盾——一边投钱给OpenAI,一边又帮Anthropic跑服务器,这不是在帮竞争对手打架吗?但加曼的解释很简单:AWS不靠押注某一家AI公司赚钱,它靠的是让客户用上最好的工具,不管这些工具是谁做的。
这不是什么新招。AWS从诞生第一天起就这么干。它卖云服务器给Netflix,也卖给自己内部的Prime Video;它提供数据库给Shopify,也自己做Amazon RDS。只要客户需要,只要技术靠谱,AWS就提供。它不偏袒自家产品,也不打压别人。这种“中立平台”的定位,反而让它成了全球企业最信赖的云服务商。
微软、谷歌也在这么干,这不是亚马逊的“独门秘籍”
别以为只有亚马逊在“两边下注”。微软一边投资OpenAI,一边也在支持Meta的Llama系列模型;谷歌的Cloud平台,同样托管着Anthropic的Claude、Mistral的模型,甚至还有国内的通义千问。AI领域的竞争,早就不是“谁家模型最强”那么简单了。
真正决定胜负的,是谁能提供最稳定、最便宜、最灵活的算力。客户不会因为某个AI模型是OpenAI做的,就放弃用AWS的服务器——他们要的是:模型跑得快、不宕机、费用透明、能按需扩缩。
AWS的策略很务实:你做模型,我跑模型。你创新,我铺路。你出新功能,我帮你全球部署。这种“不抢饭碗,只卖锅铲”的模式,让AWS在AI军备竞赛中稳坐C位。
未来的AI,不是“一个模型打天下”,而是“模型接力赛”
加曼提到一个关键趋势:未来的AI应用,不会只用一个大模型。你发个朋友圈,可能用的是轻量级模型;你写一份财报分析,系统自动调用GPT-4或Claude 3;你处理10万条客服记录,背后跑的是专门优化过的开源模型。
这叫“模型路由”——不是选一个最强的,而是选一个最合适的。就像你开车,市区用电动车,长途才用油车。AWS的云平台,就是那个能自动匹配“车型”的调度中心。
正因如此,AWS才必须同时接入OpenAI、Anthropic、Mistral、Meta、Cohere……甚至国内的模型。客户要的是选择权,不是垄断。你把所有好模型都放在一个平台上,客户自然会选你。
真正的竞争,不在模型,而在基础设施
很多人以为AI大战是模型参数的比拼,其实是算力、网络、成本和生态的较量。
OpenAI的GPT-4o再强,如果部署在Azure上,它得听微软的调度;Anthropic的Claude再聪明,如果只能跑在谷歌云,那它的全球客户就得被绑死在Google的体系里。
而AWS不一样。它不绑模型,不锁客户。你用谁的模型,用多少算力,什么时候扩容,全由你说了算。这种“开放+中立”的态度,才是它能拿下全球70%以上AI训练负载的真正原因。
据行业数据显示,2024年,超过80%的AI初创公司首选AWS作为训练和部署平台,其中近半数同时接入了至少两个主流大模型。这不是巧合,是市场用真金白银投出的选择。
所以,别再问“亚马逊为什么同时支持两家对手”了。真正该问的是:为什么其他云厂商,到现在还没想明白——在AI时代,平台的价值,不是控制模型,而是让模型自由奔跑。