苹果紧急回应:新版Siri仍将在2026年上线,但细节仍存悬念
针对彭博社近日披露的“新版Siri功能跳票”消息,苹果公司今日通过CNBC发布正式声明,确认更智能、更个性化的Siri升级版“仍按原计划于2026年内正式推出”。这一回应虽稳住了部分投资者情绪,但并未澄清具体功能是否如期整合进iOS 18.4、18.5或更晚的iOS 19中,市场对交付细节的疑虑仍未完全消散。

股价一夜蒸发千亿,投资者焦虑从“功能延迟”转向“创新乏力”
消息传出后,苹果股价在周四盘后交易中骤跌5%,市值单日蒸发超800亿美元,创下今年以来最大单日跌幅。这一跌势不仅抹去2026年迄今全部涨幅,更让市场开始重新评估苹果的创新节奏——毕竟,自iPhone 14以来,消费者对苹果的期待已从“硬件迭代”转向“软件体验的颠覆”。
华尔街分析师指出,Siri的滞后已不再是“小问题”。对比谷歌Gemini、OpenAI的GPT-4o和微软Copilot在多模态交互、上下文理解上的快速落地,Siri在语音助手领域的“迟缓”正被视作苹果生态的短板。有投资者直言:“我们不是不能等,但我们怕苹果不再领先。”
真正的突破:Siri终于要“看见”屏幕了
尽管苹果避谈版本细节,但行业内部和开发者透露的信息显示,新版Siri的核心进化远不止“听懂你说话”那么简单——它将真正“看见”你正在看什么。
据多位熟悉苹果内部开发的工程师透露,新Siri将深度集成屏幕内容感知能力。当你在邮件里看到一张发票,说一句“发给张经理”,Siri会自动识别并提取发票金额、收款方、日期,直接生成一封带附件的邮件;当你在地图上看到一家餐厅,说“帮我订今晚7点的位子”,它能调用Yelp、OpenTable甚至微信小程序完成预订——全程无需你手动复制粘贴。
这项被称为“视觉上下文理解”的技术,是苹果过去五年在AI领域投入超过50亿美元的成果之一。它依赖于端侧AI模型与隐私保护架构的结合,确保所有屏幕内容分析都在设备本地完成,不上传云端。这不仅是功能升级,更是苹果对“隐私优先”理念的一次技术宣言。
用户最关心的三个问题,苹果还没说清楚
尽管官方表态“2026年见”,但用户和开发者仍存三大疑问:
- 是否支持第三方App深度集成?目前仅限系统原生应用,像微信、淘宝、小红书等主流App能否接入Siri的屏幕感知能力,直接影响体验天花板。
- 会不会成为“电池杀手”?持续监听屏幕内容意味着更强的算力消耗。有测试数据显示,开启该功能后,iPhone 15 Pro的待机时间可能缩短15%-20%。
- 语音响应速度够不够快?现有Siri平均响应时间在2.3秒左右,而用户对“自然交互”的容忍度已降至1秒以内。苹果能否在保持隐私的前提下实现“秒级响应”,是成败关键。
苹果内部人士向媒体透露,新版Siri的测试版本已在部分员工设备上运行,反馈“惊艳但不够稳定”。有工程师表示:“它现在能认出你手机里5000张照片里的猫,但还不知道你今天心情不好。”
结语:不是能不能做,而是敢不敢放
苹果的困境,从来不是技术做不到,而是“什么时候放”。
这一次,它选择守住“2026年交付”的底线,而不是承诺“iOS 18.4上线”。这背后或许是权衡:既要给市场信心,又要留足打磨空间。毕竟,Siri的失败,曾让苹果错失了语音助手的黄金窗口;而这一次,它不能再输。
2026年,当Siri终于能“看见”你的屏幕、理解你的习惯、甚至预判你的需求时——它会不会,成为你真正离不开的“数字伙伴”?我们拭目以待。