最新消息:关注人工智能 AI赋能新媒体运营

谷歌Gemini凭性价比胜出,夺下苹果Siri合作权,Anthropic惜败

科技资讯 admin 浏览

苹果与Anthropic的“分手”:一场价值数十亿的AI错过

去年夏天,苹果内部一场关乎Siri未来的秘密会议悄然结束。曾被视为“Siri换脑”最佳候选的AI初创公司Anthropic,最终没能与苹果达成合作。据知情人士透露,Anthropic曾开出一份多年期协议,年费高达数十亿美元,希望以Claude 4系列模型全面重构Siri的对话能力。但苹果认为,这样的成本与回报不成比例——尤其是当对方坚持保留模型部分控制权、拒绝完全适配苹果的隐私架构时,谈判彻底陷入僵局。

这场“AI相亲”失败后,双方关系迅速降温。原本计划在Xcode中集成Claude Sonnet 4以辅助开发者编码的试点项目,也在2025年底悄然取消。一位前苹果工程师透露:“我们不是不需要好模型,而是不能接受一个不能完全听我们指挥的模型。”

为什么是谷歌?Gemini的胜出不是偶然

就在Anthropic退出后不久,苹果悄悄与谷歌达成了一项深度合作。2026年春季发布的iOS 18.5中,新版Siri将首次搭载谷歌的Gemini 1.5 Pro模型——这不是简单的API调用,而是深度定制、本地化部署的“苹果版Gemini”。

选择谷歌,关键不在模型性能——虽然Gemini在多轮对话、复杂指令理解上确实优于同期竞品,更重要的是:谷歌愿意让苹果拥有完全的数据控制权,接受苹果的“端侧优先”原则,甚至同意在设备上运行模型核心推理,云端仅作辅助。这正是苹果最看重的:隐私,不能妥协。

此外,谷歌在搜索、地图、日历等场景的深度整合能力,也让Siri能真正“懂生活”。比如,当你问“我明天早上9点的会议,附近有停车位吗?”,新版Siri能直接调取Google Maps实时数据,结合你的日程和交通状况,给出带导航的建议——而这,是其他AI厂商难以复制的生态协同。

OpenAI没被抛弃,只是角色变了

很多人以为苹果和OpenAI“分道扬镳”,其实不然。在Gemini成为Siri主脑的同时,OpenAI的GPT-4o仍被保留为“应急专家”。当用户问出超出日常场景的复杂问题——比如“帮我写一封给CEO的辞职信,语气要专业但带点人情味”,Siri会悄悄调用OpenAI的模型处理,整个过程用户无感。

这种“主辅搭配”策略,既控制了成本,又保留了应对极端需求的能力。苹果内部人士称:“我们不需要每个问题都用顶级模型,但不能在关键时刻掉链子。”

苹果的AI之路:慢,但每一步都踩在自己的节奏上

回顾过去一年,苹果的AI布局看似低调,实则步步为营:

  • 2025年8月:Claude Sonnet 4曾短暂接入Xcode,帮助开发者生成Swift代码片段,测试反馈良好,但因隐私协议无法落地而终止。
  • 2025年11月:内部测试显示,Gemini在真实用户场景中的准确率高出Anthropic模型18%,尤其在多轮对话和上下文记忆上表现稳定。
  • 2026年1月:Anthropic方面确认,双方谈判破裂,苹果不再将其列为优先合作方。
  • 2026年3月:苹果向开发者开放了新的“SiriKit v3”接口,允许第三方应用深度接入Gemini驱动的Siri功能,首批合作方包括Uber、Spotify和Zillow。

与安卓阵营狂推“AI everywhere”不同,苹果选择的是“AI wherever it matters”。它不追求每台设备都跑大模型,而是让Siri在你真正需要的时候,变得聪明、可靠、不打扰。

2026年,Siri真的能“重生”吗?

答案或许藏在细节里。在最近一次iOS 18.5开发者预览版中,Siri的响应速度提升了40%,错误率下降近一半,语音更自然,甚至能听懂方言口音和打断。一位测试用户说:“它现在像一个真正懂你的人,而不是一个回答问题的机器。”

这场AI的“换脑”手术,没有轰动的发布会,没有明星代言,只有悄悄上线的更新。但对数亿iPhone用户来说,这可能是他们第一次,真正觉得Siri“有用”了。