最新消息:关注人工智能 AI赋能新媒体运营

苹果将推Core AI框架,全面升级Siri与开发者集成体验

科技资讯 admin 浏览

苹果要彻底改变端侧AI:Core AI来了

WWDC2026即将揭晓苹果最新的端侧AI框架——Core AI。这不是一次简单的升级,而是苹果彻底告别传统机器学习路径、全面拥抱生成式AI的标志性转折。虽然Core ML在未来一段时间内仍会保留,但所有新功能、新模型、新体验,都将围绕Core AI展开。它将成为iPhone、iPad、Mac上所有智能功能的底层引擎。

从WWDC2025开始,苹果已经悄悄在芯片上跑起了大模型。通过更聪明的权重压缩,Siri能更流畅地回答复杂问题,照片应用也能根据上下文自动优化细节。但这些只是热身。Core AI的真正突破在于:它不再只是“运行模型”,而是让开发者能像调用相机或定位一样,直接在App里调用设备本地的AI生成能力——写文案、画图、做摘要、甚至生成语音,全部在手机里完成,不上传、不延迟、不耗流量。

最让人期待的是下一代Siri。据内部消息,它将基于苹果自研的“Foundation Model”打造,这个模型的训练数据和逻辑与Gemini有深度协同,但完全运行在设备端。这意味着Siri不再只是“回答问题”,而是能真正理解你的习惯:你早上常看的新闻、晚上爱听的播客、上周提过要买的礼物——它都能记住,并在你开口前就给出建议。而且,这一切都不需要连网。

苹果这次还准备了一个关键工具:模型上下文协议(MCP)。它不是封闭的系统,而是允许第三方开发者把自家的轻量AI模型(比如一个专做法律文书生成的模型,或一个擅长翻译方言的模型)安全地集成进iPhone。这些模型不会上传到云端,也不会占用太多内存,但能和苹果的系统深度协作。换句话说,你的iPhone将不只是“苹果的AI”,更是“你的AI”。

想象一下:你用Notes写会议纪要,AI自动提炼重点并生成待办清单;你发微信时,AI帮你润色语气;你拍照时,AI能识别出是“妈妈做的红烧肉”,然后推荐相似菜谱——所有这些,都在你手机里完成,没有服务器,没有隐私风险,响应快到像呼吸一样自然。

这不是科幻,是苹果2026年要兑现的承诺。他们不再只是卖硬件,而是要把AI变成你每天用得着、看不见、离不了的“背景能力”。而这一切,从iPhone 17 Pro Max开始,正式落地。

iPhone 17 Pro Max、苹果手机