苹果Siri要变天了:这次真靠上谷歌了
苹果的AI战略,终于不再自己硬扛了。据彭博社知名科技记者马克·古尔曼最新爆料,苹果已正式放弃自研大模型的路线,转而全面采用谷歌的Gemini技术,来重塑Siri。这不是小修小补,而是从底层重构——新版Siri将深度嵌入iOS 18.5及后续系统的核心应用,包括电话、信息、邮件、地图、健康、音乐,甚至Safari。用户以后不用再在不同App里找“AI按钮”,一句话就能让Siri帮你查健康数据、订餐、总结邮件、甚至根据你的日程推荐音乐。
这个转变来得有点突然。过去两年,苹果内部一直在秘密开发名为“全球知识问答”(Global Knowledge Query)的自研聊天机器人,目标直指ChatGPT。团队甚至搭建了专门的服务器集群,招揽了大量AI研究员。但现实是:大模型训练烧钱、见效慢,而用户对Siri的“答非所问”早已忍无可忍。去年WWDC推出的Apple Intelligence,虽然听起来高大上,实际在日常使用中仍显得笨拙——比如问“明天早上8点提醒我吃药”,Siri还要反复确认“你是说每天吗?”
于是,苹果高层在2024年初悄悄改了方向。不是放弃AI,而是放弃“造轮子”。他们决定:与其花两年时间自研一个可能还不稳定的模型,不如直接用谷歌已经打磨过、能处理复杂语义、支持多轮对话的Gemini。这背后不只是技术选择,更是商业现实——谷歌的AI在搜索、理解上下文、处理长尾问题上,比苹果强太多了。
旧计划被砍,新Siri要“一统江湖”
这次调整代价不小。原本计划在Safari里加入的“网页可信度评分”功能,曾被寄予厚望,想用AI帮你判断新闻真假。现在,这个功能被无限期搁置。健康App里设想的“AI健康顾问”、音乐App里的“智能歌单生成器”也都被砍掉或大幅缩水。苹果内部消息人士透露,这些项目不是“不好”,而是“太分散”——每个App都搞一套AI,用户反而更乱。
现在,苹果要的是“一个Siri,搞定所有”。你不用在健康App里问“我最近睡眠质量怎么样?”,再打开音乐App问“帮我放点助眠歌”,你只需要对Siri说:“我昨晚睡得不好,帮我看看数据,放点舒缓的音乐。”——系统会自动调取健康数据、分析睡眠周期,再从你的音乐偏好里挑出合适曲目播放。这不是功能叠加,是真正的系统级联动。
下个月就上线,但别指望它完美
据多个消息源确认,基于Gemini的新Siri,最早将在5月中旬随iOS 18.5测试版推送给开发者。普通用户最快6月就能在正式版中体验。但别被“颠覆性升级”的宣传骗了——这更像是“从1分到6分”的进步,不是从0到10。
谷歌的Gemini虽然强,但苹果的隐私保护不会松口。所有敏感数据(如健康记录、通话内容)仍会本地处理,云端只用于复杂推理。这意味着,你的私密对话不会传到谷歌服务器。但这也带来一个现实问题:响应速度可能不如ChatGPT快,尤其在没网的时候。
另外,Siri的语音识别和自然对话能力,依然依赖苹果自己的语音引擎。Gemini只负责“理解”和“思考”,“说话”还是苹果自己来。所以,你可能还是会听到Siri偶尔卡顿、答非所问——但至少,它不会再把“帮我订个咖啡”理解成“帮我查咖啡因摄入量”了。
用户能用上什么?真实场景来了
举几个你明天就能用上的新功能:
- 在地图里说:“导航到最近的24小时药房,顺路买瓶水”,Siri会自动规划路线,显示药店位置,还能提醒你“你上周买过这个牌子的水,要继续买吗?”
- 在信息里,Siri能帮你总结一长串群聊,比如:“你妈在群里发了7条消息,主要问你周末回不回家,还说冰箱里有你爱吃的红烧肉。”
- 在邮件里,长按一封长邮件,Siri会说:“这封是关于项目延期的,对方希望下周三前回复,建议你回复‘收到,我会在周三前提交更新’。”
这些功能,不是PPT上的概念,而是已经在内部测试中跑通的。苹果的工程师们现在每天都在用——他们终于不再为Siri的“智障”道歉了。
说到底,苹果这次不是在追赶AI,而是在学会“借力”。它不造引擎,但把最好的引擎装进自己的车里,然后用最懂用户体验的设计,让它跑得更稳、更顺。这,才是苹果真正的强项。