国行苹果 AI 一手实测:等了两年终于来了,好用吗?
![]()
2026 年 3 月 31 日,距离苹果 50 周年纪念日还剩一天。国行 iPhone 用户的设置页面里,悄悄多了一个选项:「Apple 智能与 Siri」。
没有发布会,没有新闻稿,甚至没有一条来自官方社交媒体的预告。Apple Intelligence 就这样以一种几乎静默的姿态,落在了中国用户的手机上。
![]()
从 2024 年 6 月 WWDC 的高调亮相算起,国行用户为这一刻等了整整 21 个月。
爱范儿在第一时间完成了激活和全面实测,先说结论:
体验很「苹果」,但效果很一般。但
如果你期待的是一个能跟 Gemini 或豆包正面交锋的 AI 系统,这不是你想要的。
值得注意的是,这次苹果国行 AI 突然上线可能是一次意外,并非正式发布,目前苹果已经下线这个版本。
一向以苹果爆料闻名的彭博社记者 Mark Guman ,称国行 AI 还没拿到监管批准,他给出了以下理由:
- 苹果国行 AI 上线,官方不可能没有任何宣传动作。
- 苹果不会在中国凌晨发布国行 AI 。
- 它会调用 Google 作为视觉识别引擎,这在中国本就不合理
另据爱范儿最新了解,本次推送是由于软件问题,国行的 iPhone 和 iPad 设备曾短暂地可以下载其他地区适用的设备端 Apple 智能并启用该功能。
在问题出现后,苹果已迅速修复。
据悉, Apple 智能尚未在国行推出,推出时间依监管部门审批情况而定。
国行苹果 AI 怎么激活?
首先,你需要把设备更新 iOS 26.4 系统,然后进入「设置」,会发现原来的「Siri」入口已更名为「Apple 智能与 Siri」。
![]()
点击进入,再点亮 Apple 智能的开关,系统开始下载端侧模型。
整个过程需要连接 Wi-Fi,下载时间取决于网络状况,我们实测大约花了十分钟左右。下载完成后,一系列新功能随即解锁。
机型方面有硬性要求:iPhone 15 Pro 及后续机型才能运行 Apple 智能,更早的 iPhone 15 标准版因芯片和内存限制被排除在外。
![]()
需要留意的是,部分功能在首批推送中存在激活失败的情况。我们在实测过程中遇到了个别功能无法正常开启的状况,重启后恢复正常,但倒也并不意外。
新功能实测:速度很快,体验一般
打开新的 Siri,最直观的变化是视觉层面,屏幕边缘泛起的柔光替代了过去那个悬浮在底部的圆形动画,整个交互节奏明显更流畅。
![]()
Siri 现在同时支持语音和文字输入,这意味着你在会议室或者安静的公共场合也能通过打字跟它交流,不用担心开口说话的尴尬。
![]()
语义理解能力有所提升,能处理一些上下文连贯的对话。但在我们的实测中,Siri 的深度对话能力距离 ChatGPT 或者豆包仍然有肉眼可见的差距。
值得注意的一点是大模型调用的问题。
国行版 Apple 智能调用的后端模型情况比较复杂。视觉识别 AI 方面,我们通过 iPhone 16 的「相机控制」按钮实测,调出的视觉识别引擎应该来自 Google。
![]()
而在 Siri 的对话和内容生成环节,爱范儿实测发现是有可能调出 GPT 的,网上也有调出百度文心大模型的。
这一点颇为微妙,因为此前业界普遍预期国行版只会接入百度和阿里的模型。具体的模型调用策略,苹果官方尚未给出明确说明,也许跟网络环境高度相关。
写作工具覆盖了系统级文本输入场景,包括备忘录、邮件、信息等原生 App。选中一段文字后,可以调用润色、改写、摘要等功能。
速度是写作工具最令人印象深刻的地方。
由于模型运行在本地,从点击到结果呈现几乎没有感知延迟。在备忘录里选中一段 200 字的草稿,点击「改为专业语气」,不到两秒就输出了完整结果。这种即时反馈对日常使用来说体验非常好。
![]()
但端侧模型的能力天花板也肉眼可见。
复杂长文本的摘要有时会遗漏关键信息,语气改写偶尔会产生不够地道的表达。跟调用线上大模型的写作工具相比,它胜在速度和隐私,输在精度和灵活度,在云端模型面前,苹果的 AI 写作工具就像小学生。
Apple 智能下载完成后,桌面会新增一个「图乐园」App。
它支持根据文字描述生成图片,提供素描、插画、动画三种风格。你可以输入描述,也可以直接用照片库中的人脸作为素材,生成带有本人特征的艺术风格图像。
生成速度很快,大约三到五秒就能出图,这得益于端侧扩散模型的优化,但手机会明显发热。
苹果显然没有把图乐园定位成一个专业创作工具,它更像是一个系统级的趣味配件,如果你真要玩 AI 修图,请出门左转选择豆包。
![]()
AI 消除是本次更新中最实用的功能。
在照片 App 中打开一张图片,选择消除工具,用手指涂抹需要去除的主体,系统会自动识别并完成消除和背景填充。 好消息是速度快到令人惊讶。
选中、涂抹、消除,整个过程不超过三秒,完全在本地完成。日常清理照片中的路人、电线杆、垃圾桶之类的干扰物,效率极高。
坏消息是,精度不够。
在我们的实测中,AI 消除能够快速识别并去除主体,但细节层面存在明显瑕疵。
![]()
放大图片后可以看到阴影残留、边缘模糊、填充纹理不连续等问题。
如果是消除一个背景简单的小物体,效果尚可;但面对复杂背景或者大面积消除,画面破绽一目了然。
跟 Gemini 或者豆包的消除功能相比,Apple 智能的 AI 消除有明显差距。但苹果选择把所有处理放在本地,换来的是隐私和速度,代价就是质量上的折让。
比较私人的照片资料,也许端侧模型用起来会更让人放心一些。
![]()
系统级翻译功能现在也被纳入 Apple 智能的体系。
支持实时对话翻译和文本翻译,在信息、Safari 等场景中可以直接调用。响应速度很快,可以提前下载好语言包,实测在 iPhone 或者 AirPods Pro 3 上都能激活。
但在翻译质量上,它跟 DeepL 或者 Google 翻译的差距仍然存在,特别是在长句、专业术语和语境判断上。翻译功能对于苹果来说更像是一个系统级的实用补充,而非要在翻译赛道上跟专业选手竞争。
![]()
整体来看,Apple 智能国行版的整体体验可以用两个词概括:快,安全。 快,是因为绝大多数功能运行的都是端侧模型。
文本润色、信息总结、AI 抠图、消除,所有操作的响应速度都非常流畅,没有云端调用常见的等待感。这种「想到即得到」的交互节奏确实是苹果的强项。
安全,则体现在数据处理全部在本地完成,不会上传至云端。
对于隐私敏感度日益提高的国内用户来说,这是一个不可忽视的加分项。你的照片、文字、对话记录不会离开你的设备,这一点苹果做到了。
但「快」和「安全」的另一面,是端侧处理的质量上限。
![]()
跟调用线上大模型的竞品相比,Apple 智能在消除精度、文本理解深度、图像生成质量等维度都存在可感知的差距。
苹果在隐私与性能之间做了一个明确的选择,而这个选择的代价,用户在每一次使用中都能体会到。
为什么苹果 AI 迟迟不来?
Apple Intelligence 首次亮相于 2024 年 6 月 10 日的 WWDC24。
那场发布会上,苹果做了一件前所未有的事情:把「AI」这两个字母放进了自己的核心叙事。
![]()
在此之前,苹果一直刻意回避这个缩写,更愿意用「机器学习」之类的说法来描述自己的技术能力。但 OpenAI 掀起的生成式 AI 浪潮改变了一切,苹果也不得不正面迎战。
Apple Intelligence 被描述为一个「个人智能系统」,核心架构是端侧约 30 亿参数的小模型加上云端通过 Private Cloud Compute 调用的大模型,底层跑在 Apple Silicon 上。
![]()
在那场发布会上,苹果跟 OpenAI 达成了 ChatGPT 集成协议,Siri 在遇到超出本地能力的问题时可以调用 GPT。
2024 年 10 月,Apple Intelligence 随 iOS 18.1 在美国率先上线,随后逐步扩展到英国、澳大利亚、加拿大等英语市场。12 月,更多英语地区获得支持。
2025 年 3 月 31 日,iOS 18.4 更新让 Apple Intelligence 支持了简体中文、日语、韩语等多种语言。
但国行迟迟不来。
![]()
苹果最初的计划是在 2025 年中将 Apple Intelligence 带到中国市场,可惜这个时间表几乎从一开始就注定要被推翻。
由于合规要求,无论是苹果自己的云端模型还是 OpenAI 的 ChatGPT 都无法直接在国内使用,这意味着苹果必须找到本地合作伙伴。 苹果先是接触了百度,尝试接入文心一言,但据报道在技术对接和模型表现上遇到了障碍。
随后,苹果转向阿里巴巴。2025 年 2 月,阿里巴巴集团董事局主席蔡崇信公开确认了双方的合作关系。
根据方案,阿里的通义千问将作为 Apple Intelligence 在国行设备上的模型底座,同时负责内容合规审查。阿里还会在苹果的端侧模型之上部署一个审查层,确保 AI 输出符合国内法规要求。
![]()
但随着 2025 年上半年,世界局势的急剧变化,以及 AI 行业的迅猛发展,苹果的国行 AI 也从「行货」变成了「期货」。 此后,国行版 Apple Intelligence 的上线日期经历了多次推迟。
最初锚定 2025 年中,推迟到 iOS 18.6(2025 年夏),再推迟到 iOS 26.1、iOS 26.2、iOS 26.4。
2025 年 11 月,彭博社记者马克·古尔曼在 Power On 专栏中直言,国行版落地「遥遥无期」。
他指出,除了监管问题之外,Apple Intelligence 本身的工程进展也不顺利,模型性能未达预期。
最新的消息是,苹果计划在 iOS 27 中开发 Siri 的第三方 AI 接口,同时与 Google Gemini 深度合作,双管齐下来提升苹果 AI 的使用体验——但这种把半条命交给合作伙伴的做法,也意味着苹果在这轮 AI 大模型的军备竞赛中已经输了。
苹果能做的,就是牢牢把住 AI 硬件的入口——数十亿级的苹果生态设备。
![]()
这也是为什么,国行 Apple 智能必须尽快推出的原因,苹果要赶在 WWDC26 之前,完成全球范围的布局,为 AI 时代的 App Store 扫清障碍。
2026 年 3 月 31 日。距离苹果成立 50 周年的 4 月 1 日恰好只剩最后一天。苹果在 3 月下旬刚刚宣布了创业 50 周年纪念活动,Tim Cook 发布公开信回顾公司 50 年的历程,全球多地 Apple Store 举办了特别活动,爱范儿也受邀参加了苹果在成都和上海的特别演出。
![]()
就在这个时间窗口里,Apple 智能悄悄降临国行设备。 苹果没有解释为什么选择这个时间点,也没有给出关于合作模型、审批进展的任何官方说明。但时间节点本身已经足够说明问题:
在迈入下一个 50 年的门槛上,苹果大概不希望自己最大的海外市场之一仍然被排斥在 AI 时代的门外。
![]()
图自彭博社
从商业角度看,这也合理。中国市场的 iPhone 销量在过去两年持续承压,Tim Cook 本人多次在财报电话会上承认,Apple Intelligence 的缺席是国行 iPhone 竞争力下滑的原因之一。
与此同时,华为、小米、OPPO 等国产厂商早已在 AI 功能上全面铺开,部分品牌还陆续接入了 DeepSeek 和龙虾,体验差距越拉越大。
苹果需要这个功能落地,而且需要在 50 周年这个全球瞩目的节点上落地。
把 Apple 智能放回它该有的坐标系里来看:它不是一个要跟 ChatGPT 或 Gemini 争夺「最强 AI」头衔的产品,它是苹果把 AI 能力融进系统层的第一步。 端侧模型带来的速度和隐私优势是实实在在的。
![]()
对于普通用户来说,能在本地完成文本润色、照片消除、信息摘要这些日常操作,不需要把数据交给任何云端服务,这件事本身有价值。
但如果你已经习惯了豆包、Kimi、DeepSeek 这些国产 AI 产品的能力水准,Apple 智能目前的表现大概率会让你觉得「就这?」。
端侧模型的参数量级和推理精度决定了它的上限,苹果在隐私和性能之间做出了清晰的取舍,而你需要判断这个取舍,是否符合你自己的需求。
等了快两年,Apple 智能终于来了。它迟到得太久,以至于我们对它的期待已经从「改变游戏规则」降到了「先能用再说」,但它确实来了。
在苹果 50 岁生日的前一天。
![]()
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。