Gemini加速,谷歌云的翻身仗打到了关键一役
过去一年,AI圈的风向变了。不再比谁的模型参数更大,而是看谁能把技术真正卖出去、用起来、赚到钱。谷歌没再喊“我们有多强”,而是悄悄把Gemini API的调用量从今年3月的350亿次,干到了8月的850亿次——半年增长超140%。11月上线的Gemini 3更是一记重拳,不少企业客户反馈:“这次真能用了。”
这背后,是谷歌云在悄悄改写自己的盈利逻辑。早年为了抢市场,Gemini 1.0和1.5版本几乎免费送,赔钱换流量。但现在不一样了。2.5和3.0版本在长文本理解、多模态交互、实时推理上有了明显进步,企业愿意为“好用”买单。内部人士透露,目前新版本API的单次调用成本已低于收入,利润率首次转正——这不是概念,是真金白银的回本信号。
砸了近千亿,只为建一座AI工厂
支撑这一切的,是谷歌前所未有的投入。2025年,谷歌计划在资本开支上砸910亿到930亿美元,几乎是2024年两倍。这些钱,80%以上都投向了两件事:建AI数据中心,和自研芯片。不是为了炫技,是为了把算力成本压下来。谷歌的TPU v5芯片已经部署在多个核心数据中心,据说比竞品同算力方案能耗低30%以上——这意味着,客户用得越多,谷歌赚得越稳。
投资者现在盯着的,不是技术有多炫,而是Q4财报里那条关键数据:AI相关收入是否开始显著拉动云业务整体增长。摩根士丹利最新报告指出,如果谷歌能在2025年Q2前实现AI云收入占云总营收超30%,那它就真正跨过了“烧钱阶段”。
1500家企业在用,但不是所有人都买账
截至当前,Gemini Enterprise已签约1500家客户,订阅用户突破800万,还有超过100万人在试用平台。客户名单里有麦肯锡、联合健康、汇丰银行这些巨头——但别被数字骗了,真正“深度用起来”的,可能不到三分之一。
咨询公司Sada的客户经理Simon Margolis说:“我们接触的客户,一半觉得Gemini集成顺、响应快,另一半直接摇头。”问题出在哪?在财务对账、供应链预测这些专业场景里,Gemini经常“答得漂亮,但做不准”。有家制造业客户试了三个月,最后还是自己搭了个基于开源模型的系统,因为“能改、能调、能对数据”。
一位大厂CTO坦言:“我们不是不想用谷歌,是不敢全盘托付。他们给的是‘工具箱’,不是‘成品’。我们得自己组装。”这正是谷歌的尴尬:技术底子硬,但产品太重、太复杂,不像OpenAI的ChatGPT Enterprise那样“开箱即用”。
客户不弃,是因为没得选
有意思的是,虽然有人抱怨,但很少有人彻底放弃。星座研究机构的Chirag Mehta观察到一个现象:当客户第一次用Gemini处理“公司知识库问答”时,85%的人会说“还不错”;但让他们做跨系统自动审批、多步骤流程自动化时,成功率跌到50%以下。可奇怪的是,80%的人第二个月又回来了。
为什么?因为别的平台更不稳定。微软的Copilot经常卡在Azure权限里,亚马逊的Bedrock调用延迟高,而开源模型又得自己养团队。相比之下,谷歌的基础设施稳、响应快、安全合规强——哪怕功能不全,也比“用着用着就崩了”强。
“他们不是最好的,但最可靠。”一位欧洲银行的AI负责人说,“我们不怕慢,怕断。”
下一步,看谷歌能不能把“好用”做出来
现在,谷歌云的AI业务像一辆油门踩到底、但刹车还没调好的跑车——速度快,但方向还不稳。调用量涨了,利润转正了,客户也来了,可真正能替企业“干活”的场景,还是太少。
接下来三个月,是关键窗口期。谷歌计划在2025年Q1推出Gemini Pro for Workflow,主打自动处理报销单、合同审核、库存预测等企业高频任务。如果这次能打通“AI说”和“系统做”之间的最后一公里,那它就不再是“能对话的模型”,而是“能干活的员工”。
投资人不说漂亮话了,他们只问一个问题:明年这个时候,你有多少客户,是因为“离不开你”,而不是“先试试看”?
答案,就在下一份财报里。