谷歌成苹果AI“幕后推手”?新版Siri或将上云
最近,Alphabet 2025年第四季度财报电话会上,谷歌CEO桑达尔·皮查伊和首席商务官菲利普·辛德勒的一番话,让外界对苹果下一代Siri的运行方式有了新猜测:它可能不再完全依赖苹果自己的服务器,而是部分运算将跑在谷歌的云端上。
这事儿听着有点反常。苹果一直把“隐私”当招牌,从iPhone到Mac,所有AI处理都尽量在设备本地完成,连数据传到云端都小心翼翼。可现在,谷歌高管却公开说:“我们是苹果的首选云服务提供商”,并确认正在为新版Siri提供底层算力支持——这背后,用的正是谷歌自家的TPU(张量处理单元)芯片。
为什么苹果要“借”谷歌的云?
不是苹果不想自己干,而是AI大模型太重了。Apple Intelligence虽然能在iPhone上跑,但像Gemini这种动辄千亿参数的模型,本地处理吃力,响应速度和复杂任务能力都受限。尤其是语音理解、多轮对话、实时翻译这些新功能,光靠A系列芯片,很难做到又快又准。
苹果不是没试过自建云。但谷歌的TPU集群在AI训练和推理上,已经跑了几轮实战,成本更低、效率更高。与其砸钱自建一套能比肩谷歌的基础设施,不如直接用现成的——尤其当谷歌承诺“不直接接触用户原始数据”时。
有知情人士透露,双方正在设计一种“混合架构”:简单指令,比如“明天早上8点叫我起床”,依然在手机本地处理;但像“帮我总结这封长邮件的核心内容,然后写一封礼貌的回复”这种复杂请求,数据会被加密后传到谷歌服务器,用Gemini处理完,结果再传回iPhone。整个过程,连谷歌员工都看不到原始内容。
隐私真能保得住吗?
蒂姆·库克在财报会上依旧强调:“苹果的隐私承诺没变。”但他没否认“技术合作”,也没说清楚“数据到底去哪儿了”。这种模棱两可,反而让外界更紧张。
苹果的隐私逻辑一向是:数据不离机,连苹果自己都看不见。但现在,如果AI运算必须“上云”,那“不离机”就只能打个折扣。好在,苹果和谷歌都采用了“联邦学习”和“差分隐私”技术——也就是说,数据不是直接传,而是经过多重加密和脱敏,连谷歌也无法还原原始语音或文本。
但用户心里清楚:你让别人帮你算“我昨天和老板吵了什么”,哪怕技术上再安全,心理上总有点别扭。这也是为什么,苹果内部有声音建议:别把所有AI功能都塞进一个Siri里。
未来:Siri或“一分为二”?
有消息指出,苹果可能在iOS 19中推出两套AI系统:
- 一个是“轻量版Siri”,继续走本地化路线,响应快、隐私强,适合日常查询、闹钟、控制家居。
- 另一个是“高级版Siri”,搭载Gemini,需要联网,能力更强,能写报告、分析图表、跨App联动,但默认关闭,用户需主动开启。
这就像iPhone的“省电模式”——不是系统变弱了,而是你得自己决定,要不要为功能多让出一点隐私空间。
目前,苹果和谷歌都没官宣具体上线时间,但测试版已在内部运行。首批试点用户可能在6月的WWDC上被邀请体验,正式推送或在秋季。而真正决定权,还在你手里:你愿意让Siri更聪明,还是更安静?