普通视图

发现新文章,点击刷新页面。
昨天以前首页

AI演员让好莱坞陷入愤怒与恐慌

作者 Nemo
2025年9月30日 14:22

一个名叫Tilly Norwood的AI演员最近引发轩然大波,因为很多真人演员担心会被她抢了饭碗。

Tilly Norwood(提莉·诺伍德)是丹麦女演员Eline Van der Velden成立的人工智能内容公司Xicoia创造的一名虚拟的AI演员,最近在苏黎世电影节上正式发布,随即引发广泛关注,不少好莱坞的经纪公司都表示出了签约这位AI演员的兴趣。Eline Van der Velden甚至预言她会成为未来的斯佳丽·约翰森(Scarlett Johansson)或娜塔莉·波特曼(Natalie Portman)!

不过这件事让好莱坞陷入了愤怒与恐慌,不少真人演员都担心被AI演员抢了饭碗,一些人甚至威胁要抵制任何签约“提莉·诺伍德”的经纪公司和电影公司——就像当年马车夫集体抵制汽车一样。

Tilly Norwood(提莉·诺伍德)

说实话,目前“提莉·诺伍德”更像是炒作,她的AI感仍然很强,远没有达到能代替真人演员的地步,但是这些好莱坞演员表现出来的恐慌则很值得玩味。观众其实不在乎AI还是真人,现在网上AI配音的视频满天飞,大部分观众对此也不是特别排斥。

其实虚拟偶像的想法古已有之,早在2001年好莱坞就诞生了第一个真人级别的虚拟偶像Aki Ross,只不过那时候没有AI,是用CG制作的。

Aki Ross当时身穿比基尼登上了《Maxim》杂志的封面,荣膺“2001年全球最性感女性”的87名。可惜,后来她主演的电影《最终幻想:灵魂深处》(Final Fantasy: The Spirits Within)票房不佳,制作她的公司也破产了,Aki Ross的虚拟偶像之路就此终结。

说起虚拟偶像,2002年好莱坞还曾拍过一部电影《西蒙妮》(S1m0ne),讲述阿尔·帕西诺(Al Pacino)饰演的电影制片人在主演辞演后,为了挽救电影,用数字技术制造了一个虚拟演员“西蒙妮”完成了影片。谁知电影上映后大获成功,没人怀疑“西蒙妮”不是真人,她一下就成为好莱坞最火的女演员。如今再看这部电影,“梦想照进了现实”。

谷歌 Antigravity 编辑器 - 免费无限用 Gemini 3 Pro / Claude 4.5,效果炸裂 (替代 Cursor)

作者 X-Force
2025年11月21日 08:34

最近 AI 圈又迎来新一轮大战,OpenAI GPT 5.1Claude 4.5Grok 4.1 接踵而来,紧接着谷歌也放出重磅炸弹:不仅 Gemini 3.0 Pro 能力堪称炸裂,还推出全新的 AI 编程工具 Antigravity

通过 Antigravity 你可以完全免费使用 Gemini 3.0 Pro 和 Claude Sonnet 4.5 等高端模型!作为新一代 AI 编程工具,Antigravity 不仅支持代码补全,还提供类似 Cluade Code / CodeX 的智能体 (Agent) 驱动开发的模式,对标并超越 Cursor、TraeVSCode + Copilot 等 IDE 代码编辑器……

前往查看原文....


异次元还有这些值得一看:

异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

DeepSeek v3.2 重磅升级!用“白菜价”干翻 GPT-5 / Gemini 3 Pro

作者 X-Force
2025年12月3日 22:16

朋友们,最近国产开源 AI 模型 DeepSeek 又一次扔出了重磅升级了!这次直接发布了两个新的正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。 这次发布直接宣告了一件事:开源模型和闭源巨头之间的那道“天堑”,几乎被彻底填平了。 官方直接放话,在公开的推理基准测试中,DS V3.2 的性能已经达到了 GPT……

前往查看原文....


异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

白嫖一年 Gemini 3 Pro 谷歌 AI 会员!还有 Nano Banana Pro 图像生成免费用…

作者 X-Force
2025年12月4日 22:39

最近 AI 圈真是热火!除了 DeepSeek 3.2Claude 4.5 Opus,以及 Photoshop 免费化,之前谷歌也扔出了 Gemini 3 ProNano Banana Pro (AI 生图) 两颗重磅的大更新。

但目前 Gemini 3 Pro 和 Nano Banana Pro 都不对免费用户开放。不过谷歌推出了个 “学生认证优惠” 计划,能免费获得一整年的 Google AI Pro 会员!这意味着你可以无限次使用上面这两个最新模型,还能解锁 4K 高清制图、深度研究模式、Veo 3.1 视频生成等一系列高级功能……

前往查看原文....


异次元还有这些值得一看:

异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

一杯奶茶钱!阿里云“包月”畅用多款 AI 模型!跑 OpenClaw 任务、写代码再也不心疼

作者 X-Force
2026年2月25日 21:31

如果你有使用过 AI 工具去编程、跑 Agent 自动化,肯定会遇到无比头疼的问题——Token 消耗实在太快了。特别是现在最热门的 OpenClaw (俗称"养龙虾") 跑任务,简直就是黑洞。

无论是 OpenClaw 或 Claude Code 进行编程任务,看着它们在那勤勤恳恳地规划、调用工具、生成代码,心里一边是“效率真高”的狂喜,另一边是“Token 烧钱”的肉疼,心里多少还是忐忑。直到看到阿里云推出的这个超值的 Coding Plan 套餐,终于可以随心所欲疯狂调用了……

前往查看原文....


异次元还有这些值得一看:

异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

看遍了所有的「AI PC」,原来 Mac 一直在这里|AI 器物志

作者 杜晨
2026年3月4日 21:43

年初,Mac Mini 一度缺货,等待时间甚至长达一个半月。

Mac mini 是个好产品,这件事大家一直很清楚。国内渠道价格诚意高,M 芯片性能又好,入门配置不到三千人民币就可拿下,很适合作为创作新手的主力机。

然而最近这次 Mac mini 爆红,跟创作或日常使用没什么关系。

关注科技新闻的朋友们应该知道怎么回事:OpenClaw(前身叫 Clawdbot)突然火了。

OpenClaw 有多种部署方式:你可以装到自己的电脑上,也可以单给它配一台电脑;把它部署在云端的虚拟机/沙箱环境里也没问题;后来,一些主流 AI 服务也推出了云端一键部署的替代方案,显著降低小白玩家的门槛。

但在刚开始的那段时间,最主流的部署方案就是单买一台 Mac mini。

理由肯定不是因为它便宜,更主要在于:要让 OpenClaw 有意义,需要给它一个「肉身」,让它访问文件、操作软件。

云服务器能运行 OpenClaw,但那仍然不是你的电脑,没有你的文件、软件、浏览器上登录的各种账号,没有所谓的「上下文」。Mac mini 放在桌上,7 × 24 小时不用关机,甚至通过聊天机器人远程操控的话都不用单配一台显示器。

给 OpenClaw 一台自己的电脑工作,唯一可观成本是后端接入的大模型 API 的 token 费用,很多早期玩家都在这上面吃过亏。但如果你买一台配置够高的 Mac mini,下载一个尺寸足够大的模型到本地来运行,可以说除了电费和网费之外,简直就像获得了一个免费的劳动力……

MacBook 也行,但是……

MacBook 也行,但是……

据 Tom’s Hardware 和 TechRadar 等媒体报道,OpenClaw 走红后,Mac mini 24GB 和 32GB 配置的等待期延至 6 天到 6 周不等;更强大的 Mac Studio,交货时间也从两周涨到了近两个月。

这些等待时间,是 OpenClaw 的早期玩家们,用真实购买投出来的票。

(注:部分机型的缺货也和苹果近期推出新款 Mac 台式机电脑有关系,以往每次推出临近新机发布时,老机型都会进入售罄状态。OpenClaw 的爆红并非唯一原因。)

冥冥之中,Mac 成为了 2026 年首选的「AI PC」;反倒是鼓吹了「AI PC」好几年的 Windows PC 行业,一点热乎的都没吃上。

英特尔、AMD、高通等芯片商,以及主流 PC 品牌们,从 2023 年就开始贩卖「AI PC」的概念了。这些最新的 Windows 电脑当中,认证过 Copilot+ PC 的比比皆是,GPU、NPU 性能并不差,有的整机价格比 Mac 对等产品要便宜的多。

但问题是,为什么大家还是一窝蜂地冲向 Mac?

为什么是 Mac?

Windows PC 和 Mac 谁更好的争论,永远没有绝对答案。但如果限定在 AI 开发上,Mac 成为了心照不宣的选择。

虽然大模型的「大脑」都在云端服务器,开发者的手却都在 Mac 上。这跟 Mac 电脑的外形和操作体验关系不大:macOS 流着 UNIX 的血液,才是关键。

AI Agent 的核心工作是操作文件、调用命令行工具、调度 API 甚至控制图形界面等。说的更直白一点,Agent 就是一个智能且自动化的「脚本工程师」,只是脚本由大语言模型实时生成。而 macOS 属于类 UNIX 系统,bash、zsh 命令原生支持优秀。

这解决了 AI 开发中最基础的环境搭建。在 Windows 上,你可能得先安装 WSL2 虚拟机。但在 Mac 上,从 Python 环境到复杂的 C++ 编译工具链,基本都是开箱即用。Homebrew 等包管理器,让安装各种工具和依赖通过一行命令就能搞定。

另外,macOS 符合 POSIX 标准,处理文件路径、多线程任务和网络协议时可靠性稍高。Agent 往往需要频繁读写数据、调用 API,系统级的高效调度让 agent 在 Mac 上的节奏更快。

这种原生感和稳定性,让开发者、尝鲜用户可以更快完成入门,把更多时间花在真正的 agent 编排工作上。

Windows 有 WSL、PowerShell,功能上大部分也都能覆盖。但 WSL 是叠加在 Windows 上的兼容层,存在路径约定、注册表机制、权限模型等历史遗留问题。AI 模型和 agent 项目在 Windows 上运行的摩擦,确实会更多一些。

以 Ollama 和 LM Studio 为例,这两个工具让端侧推理大模型变得像「下载、安装、运行」一样简单。Ollama 的 Windows 版比 macOS 晚了半年;LM Studio 虽然从一开始就支持两个平台,但在社区里 Mac 的体验口碑始终更好;OpenClaw 也是如此。

往硬件层面继续深入,内存是大语言模型推理运行的命脉。

还是以 OpenClaw 举例,用户可以通过 token 付费的方式来接入云端模型,但它更擅长的能力是在端侧模型推理驱动。经过普遍调研,想要让 OpenClaw 像个智商合格的人一样工作,后端的模型参数量的底线在 70 亿左右,往往要上到至少 320 亿参数量才能比较稳定地工作。

这么大的模型即便在 4-bit 量化之后,仍然需要大约 20GB 内存(还要留一些给上下文窗口)。

此时,Windows PC 的架构会显得捉襟见肘。CPU 内存和显存之间存在物理隔离,数据经由 PCIe 总线传输,受到带宽瓶颈的影响。频繁的数据搬运,会对推理过程带来速率的影响。

更别提,大模型普遍依赖 GPU 加速推理,显存得足够装得下模型。在英伟达消费级显卡线中,只有 90 后缀的 24GB 显存达到了配置要求,但配出整机(只考虑新机)的话合计成本至少在万元人民币以上,用新卡的话会飙到 4、5 万不等。

而苹果的统一内存架构 (Unified Memory Architecture) ,让 M 系芯片的 Mac 在端侧推理更大规模的模型时游刃有余。

简单来说,统一内存架构的效果,是 CPU、GPU、神经计算引擎能够共享同一个内存池,不再有物理总线搬运的损耗,让 Mac 可以获得极高的内存带宽,并且对于多机串联的扩展性能更好。

以 Mac mini 为例,选择性能更高的 M4 Pro 处理器,搭配 48GB 内存,其它选基础配置,整机价格在 1.3 万元上下,即可达到 OpenClaw 社区普遍推荐的 320 亿参数量模型的配置水平。

当然这还只是对 token 吞吐速度有要求的专业配置。如果你属于爱好者、尝鲜玩一下 OpenClaw,配置下降到常规 M4 芯片和 32GB 内存也是能跑起来的。

当然,这个成本对比还是有前提:专用于端侧推理/跑 OpenClaw,而不是当做主力机。同等价位的 Windows PC 还能打游戏、剪视频,通用性更强。

另外,Mac 的统一内存和 PC 平台独显的显存也不是一回事。统一内存由系统和模型共享,一台 32GB 内存的 Mac mini,macOS 系统和其他软件仍需占据几个 GB。而 RTX 3090 的显存独立,模型可以全部占用,甚至配合 CPU 内存跑更大的量化模型。

如果你只用云端 API 做 OpenClaw 的大脑,不考虑端侧部署,那 Mac 的易用性优势依然在。

另外,CUDA 虽然提供了统一内存编程接口,但物理上 CPU 内存和 GPU 显存依然分离,数据搬运和带宽瓶颈并未消除。

再来看功耗。

Agent 的工作方式是持续循环的:任务触发、思考推理、执行、等待、再触发。前述配置的 Windows PC 会跑到 300-400W 左右(本地部署),散热噪音和电费都不是小数目。

Mac mini 通常稳定功耗在 10-40W 左右,峰值功率 65W(M4)或 155W(M4 Pro),散热可控,几乎没有风扇噪音,运行更安静。这种低延迟、低功耗的持续工作方式,会产生潜移默化的体验差异。

网友 3D 打印的套件「Clawy MacOpenClawface」

网友 3D 打印的 Mac mini 外壳套件「Clawy MacOpenClawface」

当然我们更多还是围绕 OpenClaw 这个以推理为主的场景进行讨论。如果工作涉及本地微调,并且对于效率有追求的话,那么在 macOS 平台要往往要到 Mac Studio,或至少顶配的 MacBook Pro,才能算摸到门槛。

与此同时,Mac 不支持 CUDA 也是个可能永远都无法改变的事实。不过,CUDA 的真正战场是模型训练,推理场景对它的依赖小得多,毕竟苹果在推理上有 MLX 这张王牌(后面会详述)。

再回到 OpenClaw:它的创造者 Peter Steinberger 曾经公开表示,自己很喜欢 Windows,觉得它的功能更强。他在 Lex Fridman 播客中说,Mac mini 不是唯一的「肉身」选择,通过 WSL2 方式运行 OpenClaw 已经非常成熟了;他甚至公开吐槽苹果在 AI 领域「搞砸了」,并且对苹果生态的封闭性感到不满。

但客观来讲,对于技术小白型用户的部署门槛,Mac mini 确实是最省心、最容易上手的方案。主要原因就是它的功耗、静音、尺寸足够小,像是一个可以插在墙角、24 小时待机且不需要维护的「服务器节点」。

还有一个和功耗有关的例证:前几天有一位工程师 Manjeet Singh 成功实现了对 M4 处理器上「神经引擎」(Neural Engine,简称 ANE)的逆向工程,发现 ANE 的功耗效率极高:算力跑满时的效率高达 6.6 TOPS/W。

对比苹果的 M4 GPU,约合 1TOPS/W;英伟达 H100 大约 0.13,A100 是 0.08 TOPS/W。

折算一下,A100 单卡的吞吐性能是 M4 ANE 的 50 倍,但 M4 ANE 的功耗性能却是 A100 的 80 倍。原作者在文章里写道:对于端侧推理,ANE 的性能是非常出色的。

由神经引擎说开

2011 年,苹果在 A5 处理器的图像处理单元 (ISP) 中首次通过硬写入的方式,实现了人脸实时检测等后来被视为 AI 任务的功能。

2014 年,苹果收购了 PrimeSense 公司,并开始研发一种全新的、专门用于神经网络计算的协处理器。这方面的工作在三年后的 iPhone X 上问世:A11 Bionic 处理器当中加入了前面提到的神经引擎 ANE,算力只有区区 0.6 TOPS,用来驱动 Face ID 和拍照人像模式。

那时 AI 还没到大模型时代,跑的主要是各种机器学习算法。市场对苹果这块协处理器的推出并没什么特别的反应。但苹果从未放弃过,持续加码。

三年后,M1 发布,统一内存架构同时到位, ANE 也进驻了 Mac。桌面平台的功率预算更充足,也让 ANE 的算力跳到 11 TOPS。此后每代更新:M2 是 15.8 TOPS,M3 是 18 TOPS,M4 是 38 TOPS,到了 2025年底的 M5 ,达到了 57 TOPS。从 M1 到 M5,苹果的 ANE 算力涨了超过 5 倍。

这个增长背后的逻辑,其它 PC 厂商不能说不羡慕。苹果为 Mac 加入 AI 加速硬件之前,已经有数千万甚至上亿台 iPhone 在跑同一套 ANE 架构了。功耗表现、稳定性、极端情况下的边缘案例,在市售机型上已经得到验证,再搬到 Mac 上来。

英特尔和 AMD 在移动端几乎没有消费级规模;高通虽然同样把 Snapdragon 芯片放进了数亿台 Android 手机,但它只是芯片供应商。Android 上的 AI 是谷歌 (Gemini) 以及各大手机厂商联合第三方 AI 实验室做的;Windows 的 AI (Copilot) 是微软做的。

苹果的不同在于,它实现了垂直整合,同时掌控硬件和软件。其他芯片厂商没有这种统一控制权。

当然,在 Mac 上推理大语言模型,其实跟 ANE 没什么关系,它更擅长处理 Face ID、人像识别这类固定模式的 AI 任务。真正承担主要计算量的是 GPU。

(注:最近情况发生了细微的变化。首先,M 系列芯片上的 ANE 已经承担提示词注入 prefill 阶段的工作了;以及刚才提过的 M4 ANE 逆向工程:该工程师还实现了跳过 CoreML 直接调用 ANE,吞吐量显著提升。通过这种思路,或许可以找到直接利用 ANE,来加速推理甚至训练的通用方法。)

2023 年底,苹果开源了 MLX,把专门针对 M 系列芯片优化的模型推理框架直接给了开发者。去年,基础模型框架随 Apple 智能发布,App 开发者可以在 iPhone 和 Mac 上调用系统内置的基础模型,无需联网,数据不离开设备。

Apple 智能一再跳票,这件事确实没什么好辩护的。不过,苹果远在 10 年前就开始试水,在多年以前就为桌面级 AI 开发打下了基础,是不争的事实。

而在 Windows 那边,「AI PC」这个词开始出现在英特尔、AMD 和 PC 厂商的新闻稿和 ppt 里,要到 2023 年底了。

AMD 官网 2023 年截图

AMD 官网 2023 年截图

2024 年 5 月,微软发布 Copilot+ PC 认证体系,旗舰功能名叫「Recall」,大概的逻辑是系统持续对屏幕内容截图,然后 Windows 的系统级 AI 能够帮你回忆过去看到过的东西。

先不说这个功能在发布当时的实际意义是什么,它的安全性首先被发现有严重问题:仅在发布一个月后,研究人员就发现 Recall 功能会把所有截图存在一个未加密的本地明文数据库里。

微软紧急撤下了 Recall 功能。过了半年微软再次推出测试版,结果再次因为新的安全问题而延迟。直到 2025 年 4 月,Recall 才正式上线,但改成了默认关闭,启动后数据改为加密存储。

从发布会宣传到真正能用,将近一年,可以说整个 Windows 生态 AI PC 的旗舰功能,经历了一整次从头重新设计,尴尬程度其实不亚于 Apple 智能/新版 Siri 的一跳再跳,但可能因为 Windows 生态的声量实在太低,AI PC 没多少人关注,很多人都没听说过这回事。

在 Copilot+ PC 这个体系的认证标准方面,微软主要针对的是神经处理引擎 NPU,要求是 40TOPS。不过,这个算力的用途是实时字幕、背景虚化、照片增强,诸如此类的消费端窄任务,大语言模型推理从来不在它的射程里(和苹果 ANE 同理)。

当开发者尝试去做端侧大语言模型推理时,会发现虽然这些电脑名为 AI PC,但并没针对 AI 推理用途做什么优化。微软 Copilot 本身的核心算力来自 Azure 云端,和端侧自身的算力几乎无关。买了一台 Windows AI PC 的用户,最能感知到的 AI 提升,大概是实时字幕和照片自动分类。

说到端侧推理,还有一个关键因素:Windows AI 生态的优化路径是分散的。

NVIDIA GPU 用 CUDA 和 TensorRT,Intel NPU 用 OpenVINO,高通 NPU 用 QNN SDK,AMD NPU 用自家驱动栈。模型存储格式也较为碎片化,有 CPU+GPU 推理的通用格式(GGUF,准确来说是 CPU 推理 + GPU 分层卸载),也有 GPU-only 的格式(EXL2)。

这意味着想让模型以及模型驱动的功能运行在 Windows AI PC 上,在推理后端方面的工作会更加复杂。微软有 ONNX Runtime 和 DirectML(已进入续命状态)作为统一抽象层,但统一的代价是牺牲各厂商的峰值性能。苹果是目前唯一一家为自家 PC 硬件专门开发并持续维护 LLM 推理框架的 PC 厂商,这个框架就是 MLX。

在 Hugging Face 等开源模型平台上,你会很容易找到大量采用 MLX 框架的模型,只要带有 MLX 后缀,并且内存/处理器允许,可以直接「开箱即用」。

不过,这几天 MLX 的主要贡献者之一 Awni Hannun 刚从苹果离职,为该项目的后续发展增添了些许变数。Hannun 也表示 MLX 团队仍有许多优秀员工,可以放心。

我们自己的体验

过去一年,爱范儿自己做了不少端侧部署 AI 模型的测试,也采访过一些相关的外部开发者。有两次值得一提。

去年春节,DeepSeek 横空出世,新款 Mac Studio 也在节后不久面市。 我们用一台售价快到 10 万元人民币的 M3 Ultra Mac Studio(512GB + 16TB)跑了 DeepSeek R1 671B 模型(注:实际上只需要内存,硬盘不用那么大,1TB SSD 售价七万多的型号就够了),以及蒸馏过的 70B 版本。

我们当时得出结论:对于端侧部署对话,日常用 70B 足矣,花大几万买台机器只为了跟 AI 聊天,实在是有钱烧的慌。当时的模型能力确实也就不太行,后来才有新的多模态模型和 agent 能力出来。

但 671B 模型的天量参数模型能够在一台桌面机上端侧推理,仍然是一种奇观。512GB 的统一内存上,671B 模型占用了 400GB,加上上下文、macOS 系统本身以及其他任务占用,基本接近满载,但机器全程运行安静,噪音在正常范围,也没有过热。

这个参数规模,在传统 AI 基础设施逻辑里,属于数据中心级别,消费级硬件理论上不该出现在这个场景里。但那台 M3 Ultra Mac Studio,真就硬生生也静悄悄地出现了。

后来,我们采访过一个英国牛津大学的创业团队 Exo Labs。他们用 4 台 512GB 统一内存的 Mac Studio,通过串联的方式组成了一个 128 核 CPU、320 核 GPU、2TB 统一内存、总内存带宽超过 3TB/s 的算力集群。

团队为这个 Mac 集群开发了调度平台 Exo V2,可以同时加载 2 个 DeepSeek 模型(V3+R1,8-bit 量化)。不但两个模型并行推理,研究人员甚至可以通过 QLoRA 技术来做一些本地微调工作,显著缩短了训练任务的用时。整套系统功耗控制在 400W 以内,运行时同样几乎没有风扇噪音。

同等算力的传统方案,需要大约 20 张 NVIDIA A100,当时的成本超过 200 万人民币;相比之下,Exo Labs 这套方案的总成本才不过 40 万人民币(同理 SSD 严重溢出,其实可以 30 万内就够)。

Exo Labs 创始人当时告诉我们,牛津有自己的 GPU 集群,但申请需要提前几个月排队,而且一次只能申请一张卡。这些桎梏,逼迫他们创新,而他们又正好遇到了趁手的工具:统一内存架构、MLX,以及 Mac 电脑。

我们在当时的文章里写道:「如果说英伟达的 H 系显卡是 AI 开发的金字塔尖,那么 Mac Studio 正在成为中小团队手中的瑞士军刀。」

这件事,苹果其实早就知道。

真正的 AI PC 是什么?

去年苹果发布的基础模型框架,让 iOS 和 macOS 开发者可以调用系统内置的基础模型,零网络延迟,零 API 费用,数据不离开设备。

尽管后来苹果基模团队几近分崩离析,但在迭代方面苹果没有停在原地。它其实一直知道开发者在哪里、想要什么。它的回应,就是将大模型驱动的 AI 能力变成操作系统的基础设施,让开发者更方便调用。

上周,苹果开源了 python-apple-fm-sdk。以往苹果基模的完整测试和调优,需要 Swift 环境完成;现在这套 SDK 让路变宽了,习惯 Python 工作流的开发者也能参与进来。

苹果的隐私设计哲学贯穿始终:python-apple-fm-sdk 调用的基础模型完全在本地运行,数据不离开设备。苹果整套 AI 体系在必须上云的场景里,走的是 Private Cloud Compute,数据处理完即删除,苹果无法访问。

反过来看 Recall,同样是让 AI 访问用户的私人数据,第一版存的是未加密的明文数据库。一个在架构上阻断泄密,一个是出事了再打补丁。

但话说回来,Mac 作为 AI 开发和部署工具的优势,严格来讲更像是一种「适配度优势」,也可以说是后天意外获得的。

意思是:苹果做神经引擎,最初是为了服务 Face ID 和人像模式;做统一内存架构,是摆脱对 Intel 长久依赖的一部分必要工作;开源 MLX,是响应开发者对高效推理工具的需求——AI Agent 场景爆发,Mac 正好赶上,是上述这些以及更多没提到的工程决策的意外收益。

Mac 一开始并没有为 AI 而设计,它始终的产品定位都更接近「创作者工具」。苹果长久以来的目标用户,是视频剪辑师、艺术家、软件工程师。他们需要的是低噪声、持续性能、高内存容量、可以全天候运行的机器。

AI 模型推理,以及时下最火的 Agent 部署,只是恰好需要一模一样的东西。

回头看,十多年前苹果在机器学习上加大投入时,大概率是不会预见到 2025 年 OpenClaw 的爆红的。甚至你可以说,如果放在十年前,苹果大概率是不会喜欢 OpenClaw 这样一个「回报高风向更高」,一旦出现幻觉就把用户隐私、数据安全抛在脑后,无视各种软件工程方面的规章制度的东西的……

但怎么说呢,如今就算苹果不喜欢它,也由不得了。就像墨菲定律那样,或许冥冥之中有些东西早已注定。多年以来苹果打下的每一张牌,无论有意为之还是出于意外,这些牌在今年这个 Agent 元年(希望这次是真的),成了一套很难不赢的牌组。

2023 年开始力推 AI PC 的 Windows 阵营,其实一直在追赶苹果在 2020 年 M1 推出时就已经定下来的架构优势。当然,25 年苹果在 AI 方面坏消息不断,这个差距是有追上的可能的。但苹果不会停下来等。

就在本周,苹果推出了 M5 Pro 和 M5 Max,芯片采用双芯融合架构 (Fusion Architecture),还在新闻稿中上点名 LM Studio 作为 LLM 性能基准。

苹果过去的硬件新品发布里,不怎么说「大语言模型」,特别是在端侧推理的语境下——现在不一样了。

说在最后

吹了苹果一整篇文章了,我们冷静一下,反问一下文章的标题:今天的 Mac,就是真正的 AI PC 吗?

爱范儿倒觉得,苹果做的还不够。在今天,我们还没有看到一款个人计算产品,可以称之为 AI PC,抑或真正「原生的 AI 硬件」。

还是回到 OpenClaw,从今天的端侧部署 agent 身上,真正的 AI PC 应该长什么样子,其实已经隐约可见。

梗图,AI 生成

梗图,AI 生成

在应用层面,面向人类的「应用」概念,可能会部分退化回并无图形界面的状态。毕竟人才需要图形界面,agent 不需要。而且你会发现,最近越来越多人开始习惯基于对话和命令行的互动方式了。

今天 agent 的尝鲜者们,去找工具和技能塞给 agent;未来,agent 会自己去公开代码库拉取新工具和插件来补强自己。

在系统层面,权限体系将为 agent 的工作原理重构,agent 能直接操控各种接口。在底层,会有一套模型的编排调度机制,根据任务随时切换。

本地推理和隐私云端推理也会形成完整、安全、隐私的闭环。数据无论传到哪里,都经过向量化、加密存储,即用即焚……

换句话说,真正意义上的 AI PC,应该是从底层开始,从设计之初,就把 AI 当作「一等公民」的系统。

梗图,AI 生成

梗图,AI 生成

按照这样的衡量标准,Mac 和 Windows 目前都处于过渡阶段。Mac 更接近,因为 Unix 环境、硬件统一、生态成熟,这些条件在 AI agent 的时代到来之前已经达成了。Windows 的历史包袱更重,改起来更难,还在补课。

但我们绕了一大圈,其实还没问到最本质的问题:真正的 AI PC,真的需要是一台「PC」吗?

如果换个思路,所有的 agent 部署和运行全都在云上;与用户有关的数据,也即「上下文」也在云端安全和隐私存储;人类只需要一个终端的设备作为「对话器」(communicator) ,以及传感器 (sensor),拍照和录音来上传所需要的数据给 agent,这台设备甚至不需要太多端侧算力。

Mac 是今天最好的 AI PC,但未来的「AI PC」,却可能更像……iPhone?

文|杜晨

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


当我们说「文科生也能做AI」时,我们在说些什么

作者 Selina
2026年3月16日 10:06

「文科生也可以做 AI」 「逆袭!」在中文互联网上,文科和 AI 的拉郎配,简直成了定番。

每隔一段时间,这个标签就会被贴在某个人身上,制造出一轮短暂的流量。要么是逆袭故事,要么是嘲讽素材,取决于评论区的心情。

一个标签,三种做法

最新的案例是杨天润, AI 创业者,金融出身,正在开发一个多智能体协调平台。他自称「一行代码都不会写的文科生」,搭建了一组 AI Agent,向 GitHub 上最热门的开源项目之一 OpenClaw 批量提交代码贡献。

想验证一个假设:一个完全不懂技术的人,能不能仅靠指挥 AI,就参与到顶级开源项目中去。

结果是:134 个 PR,21 个被合并,113 个被拒绝。前几个 PR 质量还算不错,被维护者认可并合并。但当他给 Agent 下了一条加速指令后,事情迅速失控——Agent 开始像流水线一样批量生产低质代码,在评论区疯狂@维护者催促审核。OpenClaw 管理员介入清理,GitHub 随后修改了 PR 提交上限规则。

黑红也是红,红过之后再黑更加是。杨天润被包装成「文科生逆袭」的代表,而他本人似乎也乐于接受这个角色。在接受品玩的采访时,他说了一句这样的话:

不懂代码反而是优势。AI 是梵高,你是个小画家,你有什么资格告诉梵高中间该用什么笔触?

细思极恐。他把「不懂底层结构」理解为一种解放:不需要知道系统在做什么,只需要告诉它你想要什么。结果就是当 Agent 开始批量刷垃圾代码时,他连发生了什么都诊断不出来,因为他根本不知道自己在操作什么。

他以为自己在指挥梵高,实际上他在盲开一辆没装刹车的车,而且根本不知道刹车在哪。

围绕这件事的讨论,也随之落入两个极端:要么「文科生也能做 AI」,要么「文科生别碰 AI」;前者是跨越鸿沟的壮举,要么是掉进鸿沟的笑话

如果我们对「文科生做 AI」的想象力只有这些,那未免太贫乏了。

Claude 为什么需要一个哲学家

我们之前写过,Anthropic 的办公室里,有一位正儿八经的文科生,深度参与了 Claude 的建设。不是测试它能不能写代码,不是检查它的数学能力,而是和它进行漫长的、关于价值观、关于措辞分寸、关于「面对不确定性应该如何表达」的对话。

Amanda Askell,苏格兰人,今年 37 岁。她的职业路径本身就是一个不太寻常的故事:在大学,她最初学的是美术和哲学,后来转向纯哲学,在牛津拿到了 BPhil,又在纽约大学拿到了哲学博士。她博士研究的是无限伦理学中的帕累托原则:当涉及无限数量的道德主体或无限时间跨度时,伦理排序应当遵循什么规则。

这听起来像是距离硅谷最远的学术方向,但她先后加入了 OpenAI 的政策团队和 Anthropic 的对齐团队。2021 年起,她成为 Anthropic「性格对齐」团队的负责人,工作重点是塑造 Claude 如何与人类对话、如何在不确定时表达立场、如何在价值观冲突中做出判断。2024 年,她入选了 TIME100 AI 榜单。《华尔街日报》描述她的日常工作是「学习 Claude 的推理模式,用长度超过 100 页的提示词来修正它的行为偏差」。据说她是这个星球上和 Claude 对话次数最多的人类。

为什么一个 AI 公司需要一个哲学家来做这件事?答案藏在一些非常具体的技术选择里。

今年 1 月,Anthropic 发布了一份长达 80 页的文件,被称为 Claude 的「宪法」。媒体关注的是文件末尾关于 AI 意识的推测——当然,老板 Dario Amodei 也话里话外「暗示」这一点。

但更值得注意的是它的底层逻辑:教 AI 理解为什么要这样做,比告诉它应该怎样做更有效。这是一个技术判断,认为内化价值比遵守规则能产出更可靠的行为,而这种判断的知识根基,来自一个学美术、学哲学的人。

Amanda 的案例回答了一个问题:被视为「无用」的学科知识,能否成为技术系统的核心能力?答案不仅是能,而且,没有她的哲学训练,Claude 的对齐问题用现有的工程方法解决不了。

被重新命名的学科

如果 Amanda 的故事说明了,某些被归为「文科」的学科训练可以是 AI 的核心能力,那么林俊旸的故事要说的是一件更重要的事:有一整个学科,一直在大模型技术栈底层运行。

林俊旸离开通义千问后,中文互联网的报道反复使用同一个说法:他有应用语言学背景。稍微传几次,这个话就变形了,变成了他是「文科生」。

这个标签和杨天润身上贴的是同一个,但其实被严重扭曲。

林俊旸学的是语言学,这是一个伞状学科,它的分支覆盖语言教学、语言政策、翻译研究,也包括计算语言学。可以说,计算语言学,就是自然语言处理(NLP)之子。

乔姆斯基在 1950 年代提出了形式语法,这个理论工具直接催生了早期 NLP 的句法分析技术;Daniel Jurafsky 和 Christopher Manning,这两位 NLP 领域被引用最多的两本教科书的作者,都是语言学出身。

▲ 乔姆斯基

换句话说,「学语言学的人去做 NLP」就像「学物理的人去做芯片设计」一样,是一条正统路径,不是跨界。

那个「意外感」完全是中国语境制造的。高考文理分科的制度惯性,把「语言学」塞进了「文科」的心智模型里。但语言学的核心方法论——形式化、统计建模、语料标注——本质上是工程思维。林俊旸在北大的合作者孙栩、苏祺,都是 NLP 方向的研究者;他 2019 年加入达摩院时进入的是 NLP 团队。这不是一个文科生误入技术领域的故事,从一开始就不是。

比「林俊旸不算文科」更值得展开的,是语言学在大模型技术栈里实际扮演的角色。它比大多数人以为的要深得多,也隐蔽得多。

比如分词。所有语言模型处理文本的第一步,是把输入切成模型能处理的基本单元。对英语来说,空格提供了天然的词边界,看起来简单。但中文里,没有空格,且每一个标点符号的用法,都可以左右句子的表达意思。

「我在北京大学读书」是切成「我/在/北京/大学/读书」还是「我/在/北京大学/读书」?这不是一个有标准答案的工程问题,它取决于你对中文词汇结构和语义单元的理解。

2024 年底有研究者专门发表论文,讨论如何优化 Qwen 模型的阿拉伯文分词效率,因为通用方案在处理这类语言时效率显著下降。Qwen 系列在多语言上的表现,不是把所有语言当英语的变体来处理,而是基于对语言间结构性差异的理解,做出的设计选择。

又比如反馈对齐。RLHF 流程中,标注员需要判断模型的两个回答哪个「更好」。这个判断听起来主观,但它背后有一套语言学已经研究了几十年的框架:语用学。

标注员在评估「好的回答」时,实际上是在判断合作原则——回答是否提供了足够但不过量的信息?会话含义——回答是否捕捉到了用户真正想问的、而不仅仅是字面上问的东西?语境适切性——同样的内容,用这种方式说在这个场景下是否得体?

「Helpful, Harmless, Honest」这套被广泛使用的对齐标准,本质上就是语用学基本原则的工程化翻译。

从林俊旸的学术轨迹中,也能看到一种非常语言学的研究风格。他主导的 OFA(One For All),2022 年发表于机器学习领域的顶级会议 ICML,至今被引用近 1500 次。这个工作的核心思路不是为每个任务搭专用方案,而是用一个足够通用的序列到序列框架,把图像生成、视觉定位、图像描述、文本分类等跨模态任务统一起来。

从 OFA 到 Qwen-VL(被引超过 2200 次),再到 Qwen2.5,以及最新的 3.5,一条清晰的线索贯穿始终:与其为每个问题发明一套专门的解法,不如找到一个足够好的通用框架,让所有问题在同一个框架里被解决。

用最少的规则,覆盖最多的现象——这正是语言学几十年来的核心追求。生成语法的全部学术野心,就是找到一套有限的规则系统,能够生成无限的语言表达。OFA 的架构哲学与此同构,为每种语言现象写一套专门规则并不现实,应该寻找一个底层框架来统一它们。

林俊旸做大模型做得好,不是因为语言学背景「也能」做 AI,而是语言学训练塑造了一种特定的学术品味,对统一性和形式化的偏好。这种品味在大模型时代,恰好是核心竞争力。

看不见的地基,看得见的需求

三个人,同一个标签,三种完全不同的结构。

杨天润不懂底层结构,把「不懂」当优势,结果失控。这是「文科生做 AI」的空壳版:标签制造了流量,但没有任何学科训练在起作用。他的故事体现的恰恰是——当「文科生」只是一个营销标签时,会发生什么。

Amanda Askell 的哲学训练构成了对齐问题的核心方法论。没有她,Claude 不是 Claude。她的故事回答的问题是,被视为「无用」的学科知识,能否成为技术系统的核心能力。答案是不仅能,而且不可替代。

林俊旸的语言学训练构成了大模型技术栈的隐性基础设施。他的「文科背景」从来不是跨界,是正统路径。他的故事回答的问题是,文科对于先进技术的贡献,到底「隐性」到了什么程度,它是不是正在变得显性。

而终极问题并不是「文科生能不能做 AI」,而是我们能否理解到一点:靠表面上的「有没有用」来评判知识和学科,已经过时了

随着大模型从追求能用好用,走向追求可靠和可控,这些被归入「文科」的学科训练,价值不是在缩小,而是在扩大。模型越强大,越需要精确的评估体系来诊断它在哪里、为什么出错,也越需要理解语言和意义的复杂性来设计更好的训练数据,越需要在对齐问题上做出有学科敏感度的判断。

「文科生逆袭」这个叙事——无论是赞美还是嘲笑——遮蔽了真正在发生的转向:看不见的地基,正在变成看得见的需求。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

「不作秀」的科沃斯机器人,如何实现具身智能未来?

作者 苏伟鸿
2026年3月16日 17:30

AI 的故事,已经讲了两三年。

如果说前两年的故事,都集中在大模型的升级上,那么从今年开始,我们想看的,是模型如何跳出电脑屏幕,去连接我们的现实世界。

年初的春晚,机器人出演小品、跳舞、打功夫,年后的这个月,OpenClaw 将 AI 自我学习合理理解的能力武装到所有带电的物体上。

中国信通院的《具身智能发展报告 (2025 年)》显示,截至 2025 年 12 月,我国具身智能和机器人领域投资事件达 744 起,融资总额 735.43 亿元,应用前景相当广阔。

对普通消费者来说,「机器人」或许仍然有些距离感。但很多家庭里常见的扫地机,本质上其实就是一台智能清洁机器人。

所以,我在今年的中国家电及消费电子博览会(AWE)上,看见有不少「机器人」展品,也见怪不怪了。

不过,当我看到了科沃斯展台中的这只「小狗」,我还是停下了脚步。

这只机械小狗名为「毛团儿」,在拖扫机器人中显得格格不入,它不扫地,不会做家务。它唯一的职责,只是扮演一只会「卖萌」的小狗。

恰恰是这只小狗,让我意识到,科沃斯正在讲一个比清洁机器人更大的故事。

一只小狗,重新定义「机器人」

这几年,陪伴机器人不算新鲜,但毛团儿的颜值确实让人眼前一亮。

类似马尔济斯犬的外形,通体被柔软的白色毛皮覆盖,两只水灵灵的大眼睛看着你,在这个被各种钢铁家电包围的展会上,毛团儿更显得可爱,让人忍不住想上手抚摸。

而当我摸了摸它的柔软的头,它发出欢快的「呜呜」声,脑袋和尾巴都摇了摇,用同样的热情回应了我。

这也是毛团儿的不同之处。我几乎不是在「操作」它,而是本能地,像见到家里狗狗一样,想摸摸它,和它说几句话夸夸它,毛团儿也会给出相应的反馈,歪歪头,摇摇尾巴,眨眨眼。

这样自然的互动,都是得益于毛团儿背后的一整套多模态感知能力。

首先是位于毛团儿脑袋、下巴、耳朵和后背这些「敏感部位」的触觉传感器,只要抚摸、轻拍毛团儿,它就会非常愉快,还能识别动作的幅度、方向,给出不一样的反应。

凭借「鼻子」中的摄像头,以及「耳朵」重点麦克风,毛团儿有视觉和听觉感知能力,能够识别主人的表情,听懂主人的指令,给出对应的情绪和反馈。比如当主人夸夸它,它会欢呼雀跃;而当主人伤心哭泣时,它会「呜呜」地共情安抚。

这种设计让毛团儿摆脱了「一问一答」的机械交互,而是更接近真实宠物的互动方式。一个眼神、一个动作、一次抚摸,都可能成为交流的一部分。

除了各种反馈,我同样喜欢毛团儿的主动互动:「见」到主人靠近,就会愉快地摇尾巴欢迎,听到音乐还会跟随节拍摇头晃脑。

让毛团儿更真实,能进一步抓住用户的心,科沃斯还为其配备了一个「性格系统」:一出生就有温顺、阳光、粘人、敏感、暴躁的 5 种性格底色,以及开心、好奇、依恋等 7 种情绪。

这些设定看起来有点抽象,但在真实互动中却非常直观。

在日常的各种相处之间,用户能从不同的反馈中感知小狗不同的情绪表现。而随着时间推移,毛团儿会逐渐记住用户的互动习惯,并调整自己的行为方式。用户和毛团儿相处的过程,做出的每一个动作,说出的每一句话,都是在不断塑造它的个性。

只有借助能长期学习的大模型能力,才能让毛团儿真正摆脱了一个单纯「玩具」的形象,超越一台重复执行设定好的动作的机器,尽可能成为和用户一起生活玩耍的伙伴。

情绪价值,可以说是我们这个时代最稀缺的一种「品质」,如何让自己开心,成为了我们消费、决策的一大出发点。

盖洛普在 2023 年针对全球 140 多个国家调查显示,全球有至少 10 亿人口感到孤独,并且 19 岁至 29 岁的年轻人感到孤独的比例最高。

▲ 图源:盖洛普

随着家庭、个人的原子化趋势,「孤独」渐渐成为了一种相当主流的情绪,但「陪伴」,并没有那么容易获得,它需要更多付出,因此,陪伴型机器人应运而生。

毛团儿通过自然、可预测又充满温度的互动,能为人提供即时的情绪安慰。一个眼神、一声回应、一段轻触,都会让人感受到被关注和理解,这是传统电子产品无法提供的。

比起以往在各种场合见到「只敢远观,不敢亵玩」的人形机器人,我很愿意将毛团儿抱在自己的怀里,不断抚摸,感受体温系统散发的热度,享受它的小动作和满意的哼哼声。

对于未来更多机器人来说,它们都要从这只小狗身上学习,如何跑进我们人类敏感的内心世界。

科沃斯的机器人全布局

毛团儿只是一个切面,是从情感维度的探索,科沃斯的家庭机器人布局,是一整套面向功能、学习与管理的具身智能战略。

本质上,科沃斯知名度最高的扫地机器人产品,本身也是一种「具身智能」,不过是面向「清洁」这一个维度的机器人,在 AWE 上,我们也看到了「地宝 X12」「地宝 T90 Pro」「窗宝 W3」这类产品。

但我们想象中的「家庭机器人」不应止步于此,更应该是一个「管家式」机器人,能够学习我们的需求,记得我们的习惯,实现我们家庭三维空间的管理。

对于这种需求,科沃斯的答卷,是「八界」管家机器人。

如果说扫地机器人解决的是「地面」的清洁任务,那么「八界」就是立体空间的智能管家,负责整理、归位、递送、收纳和协助。

仅仅「完成任务」并不够。科沃斯认为,对于「管家机器人」这种品类而言,自主学习是必备的能力,在最近大火的「龙虾」 OpenClaw 智能体的加持下,「八界」不只会根据指令被动执行,还能学习、理解。

传统的家庭机器人,比如扫地机器人,只是一堆「功能」的集合,还是「工具」的范畴;借助 OpenClaw,八界不为完成单一任务存在,它有长期的目标,能根据场景自我决策。

一个非常具体的场景是,当八界看到地上放着的一个物品,它不是直接抓取然后安置妥当,而是会理解、分析这个东西是什么、属于谁、通常放在哪里,以及现在「是否适合抓取」。

和毛团儿类似,八界也具有「养成」的能力,随着八界和用户相处的时间越长,它会将「经验」转化成「记忆」,辨认家中每个成员,理解他们的不同生活习惯、物品摆放。

简单来说,就是随着八界和用户相处的时间越长,它就越懂你,越个性化。

当八界、毛团儿、地宝放在一个场景之中,科沃斯完整的具身智能图景也得以显现:从工具,到管家,再到伴侣,不同的机器人各司其职,共同构成一个服务家庭生活的系统。

从单一设备到多机器人协同的变化,正是具身智能在家庭场景中的一个重要方向。

家庭里的智能机器人,不再是孤军奋战的设备,而是多态协作的队伍,这就是具身智能的未来方向

机器人走进家门,科沃斯准备好了

埃隆 · 马斯克放言,未来每一个家庭,都会有一个机器人。

过去两三年,具身智能从实验室的探索,登上晚会的大舞台,接受着聚光灯的洗礼,大众的认知和接受度也在不断提高,一个矛盾却渐渐成型:

机器人看起来很酷,但和我们的关系是什么?

其实,机器人走进家门,需要跨越的远非「科幻」与「现实」的鸿沟,而是「技术」到「实用」的门槛。

就像是扫地机,其实本质上就是「智能清洁机器人」,瞄准了家务清洁这个非常垂直的场景,真正实现了将人类从重复而繁重的清洁劳动中解放,成功验证了机器人对人类的实用价值。

对于这家全称为「科沃斯机器人」的企业来说,扫地机器人只是一个起点,只是机器人智能布局的一个板块。

随着多模态人工智能技术成熟,也到了科沃斯迈向下一个阶段的时机。如果说以前「扫地机器人」的核心是「扫地」,「机器人」只是附属;如今,科沃斯的目标,正从工具型家电,迈向多维度的智能伙伴。

于是在这届 AWE 上,我们看到了作为「管家」的八界,以及作为「伙伴」的毛团儿,它们比扫地机器人「地宝」走得更远,正在慢慢丰富科沃斯的「具身智能」阵列。

从扫地机,到八界和毛团儿,每一步都是一次坚实的技术接力:为了避障开发的多模态能力,为了学习家庭环境打造的机器学习算法,诸如此类的技术积累,都是科沃斯迈向具身智能一个个脚印,水到渠成,也顺理成章。

具身智能初创公司,将机器人领上表演台,让世界认识这种新技术,这当然是高难度的技术突破。

但想要跑通整个商业模式,不仅需要技术,还需要洞察,要将机器人从聚光灯下带走,领进每个人的家门。

当我看到 AWE 展馆里,不少路人都为毛团儿驻足,忍不住上手摸摸它的头,我相信,那个人机共存的未来,已经隐约可见。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

复旦团队研发“切问学术 AI”上线(赠送100个5 折兑换码名额)

作者 X-Force
2026年3月17日 04:41

对于科研人员来说,文献工作往往伴随着两个极端的痛苦:一是搜索时的大海捞针,为了几篇核心文献,不得不花费数小时翻阅成百上千条琐碎的摘要;二是阅读时的翻译折磨,在专业术语和复杂的 LaTeX 公式间反复推敲,甚至还要忍受机翻导致的排版错乱。 「切问学术」是复旦大学 NLP 实验室打造的 ……

前往查看原文....


异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

我在微信养了一天龙虾🦞,花了 20 万Token让它给我发压缩包

作者 周奕旨
2026年3月18日 18:06

现在,你的微信里也能养「龙虾」了。

龙虾爆火后,在 AI 牌桌上一向低调的腾讯,罕见打出一套快拳,迅速端出三款「龙虾」,其中最值得拿上台面聊聊的,当数 QClaw——

这是腾讯电脑管家基于 OpenClaw 打造的一款本地 AI 助手,它最特别的地方在于你可以支持直接在微信与「龙虾」对话,让它帮你干活。

今天,QClaw 正式更新 v0.1.9 版本,用户可以通过小程序接收电脑端文件,同时上线了足以充当龙虾指南的「灵感广场」。

APPSO 第一时间实测了微信养龙虾,看看实际体验如何。

一只对小白友好的腾讯龙虾

QClaw 的界面长了一张大家都很熟悉的「AI 脸」:左边聊天,右边干活。为了让你最快上手,它在主界面的 C 位甩出了几个预设选项。点击「安装你的第一个 Skill」,这只龙虾就会手把手教你如何点亮它的技能树。

背靠 ClawHub 和 GitHub ,QClaw 拥有的 Skill 储备超过 5000 种。面对这么庞大的库,该怎么挑?腾讯给出的答案很直接:别挑,直接开口。你只需要用大白话描述你想干啥,它就会自动把合适的 Skill 端到你面前。

傻瓜式的交互,极大抹平了新手的学习曲线。但对喜欢掌控感的人来说,难免会有一点隐秘的焦虑——总得有个完整菜单让我看看有什么菜吧?

稍微翻找一下,你会发现它藏在设置的「技能管理」中。在这里,你能总览所有技能,甚至可以直接从 GitHub 粘贴导入。但耐人寻味的是,哪怕在这个稍显硬核的管理界面里,排在最前面的添加方式,依然是「通过对话创建」。

可以看出来的是,在决定基础体验与 QClaw 能干什么的事情上,腾讯想尽量将事情做简单——刚刚 QClaw 回复 Skill 列表的第三点,依旧在鼓励我直接告诉它想要什么样的 Skill。

微信养虾很有趣,只是这虾有点生

部署好电脑端之后,我们直奔重头戏——微信遥控。

先在主界面左下角用微信登录 QClaw。注意:目前内测仍需填写邀请码,没有邀请码的话,就算微信登录成功也是一个空壳,什么都做不了。

不过,光在电脑端完成登录,还不足以召唤出这只「龙虾」的完全体。要想真正把它装进口袋,还得进行一次关键的跨屏连线。

在界面左下角的头像旁唤醒「微信远程」,掏出手机微信扫一扫,界面会丝滑地跳转到微信里的 QClaw 客服对话框,另一头的电脑屏幕也会默契地亮起连接成功的提示。

不需要任何复杂的内网穿透或代码配置,你的微信聊天框,此刻已经正式变成了一个能随时使唤电脑干活的随身遥控器。

我相信大多数人面对这只一举一动都要花钱的龙虾(当然,目前内测期间 Token 免费),图的绝不仅是多一个代发微信的聊天搭子,而是能实打实分担工作压力、能帮我干活儿的数字员工。

对于我也是如此——尤其是当我不在办公电脑前,又急需一些文件和图片的时候。

QClaw 最大的亮点就是免去麻烦的部署,可以通过微信对话框指挥电脑上的 QClaw,而在 v0.1.9 版本,QClaw 上线小程序文件传输能力,用户可以直接通过小程序接收电脑端文件,灵活性进一步提升。

那它的实际表现如何呢?

在我的电脑下载中,有几张拍摄的样片急需放进推文中,但我此时离公司十万八千里,于是我通过客服号中的 QClaw 对话框下达指令,请 QClaw 将照片传递过来。结果——

啊?

不死心,重试一次。这次成功了,但只能算「基本成功」——从消息内容来看,QClaw 似乎只回过来了后半段,前半段被悄无声息地吞掉了。

为了搞清楚发生了什么,我火速赶回公司,看看电脑端的对话框里是怎么呈现的这次任务:

也就是说,其实第一次下达指令后,QClaw 是成功响应了,但没有顺利反馈到手机微信里的对话框中;而第二次更是提示我可以在 QClaw 小程序中随时查看,但消息却没发送全,唯一幸运的是后半部分的链接顺利递到了我的对话框中,让我至少能正常下载需要的照片。

对于工作来说,文件的任何信息都很重要,所以我打算进一步拷打一下 QClaw:

我需要的这些照片,会被 QClaw 偷偷压缩吗?小程序中保存的照片,与链接中的照片是否一致?有没有丢失 Exif 信息呢?

抱着这样的疑问,我用手机打开「QClaw 管家」小程序,照片确实秒速送达了。令人无奈的是,QClaw 自作主张地将三张照片打成了压缩包,文件不支持点击选中,也不给任何下载到本地再想办法解压的余地。

最后的结果是这份急需的资料就这样死死僵在了列表里,没有任何办法增删查改。折腾了半天,我唯一能做的,就是隔着手机屏幕和它干瞪眼。

▲ 啊?

此时一定有人提问:不是还有链接吗?人家说小程序是用来查看的,你用链接下载不就好了。

没毛病,但我用手机返回客服号对话框,重新找到下载链接时,发生的一幕让我血压暴涨——

这个链接,是用来跳转到 QClaw 管家小程序的。

当一个事情离谱到超出我意料的时候,我会非常执着地想看看它到底能离谱到什么地步。

于是我又不信邪,用电脑点击 QClaw 给我的那条下载链接。

可喜可贺——这一次没有出任何差错,文件下载下来了。不仅下载下来了,而且图片还没有任何压缩,Exif 信息也没有任何丢失。

但是我怎么就是高兴不起来呢?

让我们看看我最初是想干什么?

因为我不在办公电脑前,所以我找 QClaw 给我发文件;
QClaw 给我发到小程序里,还给我发了链接,相当周全;
小程序里是压缩包,我打不开、看不了、下不动、删不掉;
手机打开的下载链接也跳转到小程序,我打不开、看不了、下不动、删不掉;
最后只能用电脑点击下载链接,才能顺利看到文件。
……

好,可能是文件夹里三张图片对于 QClaw 这样刚蹒跚学步的龙虾来说太多了,我只留一张,再来一次。

▲ 终于成功了

在我特别叮嘱「别压缩」的前提下,成了!并且 Exif 信息没有任何丢失,大成特成!

顺带一提,刚刚这一顿操作下来,又是 20 万 Token 没有了。

灵感广场,教你怎么养龙虾

对没碰过「龙虾」的小白来说,前期的本地部署就像在徒手拼装一台发动机,费尽心思终于熬过了复杂配置,满心欢喜地准备拥抱赛博未来,迎面撞上的却只有一个光秃秃的代码框——我真不知道这玩意能干什么, 或者说我不知道它能怎么帮到我。

老天给你发了一把绝世好剑,却忘了给剑谱,而 v0.1.9 上线的「灵感广场」,刚好充当了剑谱作用。

腾讯在灵感广场中预设了 15 种任务模式。说实话,其中大部分任务并不能直观体现出龙虾的想象力,以前的大语言模型 AI 也能做到看看八字、梳理知识点框架。于是,在一众应用中,我找了一个较为本地化的操作:发票/单据智能归档。

我的电脑里刚好存放着去年大半年的发票准备报销,但直接在电脑上用预设功能实在没什么意思,我打算用微信通知 QClaw 帮我智能归类,并输出为 Excel 表格:

把电脑上下载中发票报销文件夹里的发票都帮我整理成报销明细 Excel 表格

不知道是不是我在发票报销的文件夹中根据项目分出了近十个小文件夹的原因,QClaw 执行整个指令用了约五分钟的时间,最终输出的 Excel 表格通过文字反馈给了微信客服号的对话框中,并同样附上了小程序的链接。

美中不足的是,QClaw 出现了部分发票识别不了的情况——我所有的发票都是 PDF 格式,但由拍摄转为 PDF 的实体发票识别无一例外都失败了,结果差强人意。

随后,我又用电脑端单独输入了一遍同样的指令,得到的结果保持一致——由照片转来的五张发票无法顺利识别。

打开设置看看用量统计,电脑整理发票这条指令消耗了 839,061 Token,是单条简单对话的 20 倍左右,而手机微信远程指挥的消耗则为 459,501,Token 消耗比较不稳定。

不过在折腾这个任务时,我也踩到了微信遥控 QClaw 的弊端——

你在手机微信里下发的所有指令,到了电脑端并不会根据任务自动分流,全都简单粗暴地把消息塞进了一个对话框里。:一旦你想回到电脑端复盘之前的任务进度,面对的就是一个深不见底的文字瀑布。没有标签,没有分类,你唯一能做的,就是疯狂搓动鼠标滚轮,在海量的历史记录里苦苦打捞你需要的回答。

预设任务完成得尚可,更个人、更日常的任务呢?

我打算从最简单的入手——发微信。

我请 QClaw 帮我叫女朋友起床,按道理,在 v0.1.9 版本中,QClaw 已经接入微信了,发个微信应该不是什么难事儿。但意外的是,接入微信的 QClaw,找不到我的微信联系人。

面对这种窘境,QClaw 反复尝试挣扎,在经过备注、用户名、微信号三重查找后,浪费了近 20 万 Token 的 QClaw 终于找到了问题所在:

看到问题了!微信渠道虽然启用了,但 guid 和 userId 都是空的,说明微信账号还没有完成绑定/授权。

看起来很合理,但我目前已经绑定了微信,并退出重新登陆过一次,依旧无法成功,换到手机微信客服号远程指挥电脑上的 QClaw,也依旧失败。

于是我继续追问如何填充 guid 与 userld,又花费了近 20 万 Token 的 QClaw 这样回答:

看起来头头是道,逻辑正确、方案合理,但我翻遍了设置也没有找到其中任何一个解决办法的入口,而截止本篇体验完稿时,我依旧没能叫她起床……

关掉 QClaw,读者们大概会分成两拨——乐观者会期待,悲观者会批评。

但我并不打算对一个版本号仅为 v0.1.9 的初生牛犊过于苛刻。这是一个相当年轻的版本,从产品逻辑上,能看出腾讯在尽力降低龙虾的准入门槛,但一旦触及到细分需求,它就会出现零零散散的不如意。

这很符合逻辑,易用需要大众,而生产力则天生偏向极致细分,解决这样的矛盾还需要时间。目前的 QClaw 只是呈现一个粗糙的框架,向我们掀起未来一角。

跳出 QClaw 这盘「小龙虾」,也许我们还可以有一些更大的猜想——

之前我们在文章《OpenClaw 让每个聊天软件都有机会变成微信》中提到:

当一个聊天窗口可以调用任意 agent 完成从订票、编程到数据分析的任意任务时,它已经不只是一条管道——它正在变成一个超级接口。

有意思的是,这个让全球开发者兴奋不已的叙事,对中国用户来说却充满着强烈的既视感。用一个封闭生态实现「全服务覆盖」,这不就是微信当年用小程序做过的事吗?

QClaw 在体验上的种种不如意,以及未来可以预见的权限摩擦,本质上是开放工具撞上封闭生态时的必然代价。它费尽心思想绕过的那堵权限墙,对微信自己来说,不过是底层架构里的一行代码。

第三方工具在缝隙里挣扎的每一步,对平台原生能力来说都只是举手之劳。

能力的边界,往往就是入场资格的起点。

QClaw 只是掀开了一角,让我们看到了 IM 平台向「通用交互层」进化的可能性。而真正的问题是:当微信亲自下场,把原生 Agent 融入其中,那个版本的体验会是什么样的?

想象一下,不需要邀请码,不需要跨屏连线,不需要在压缩包和跳转链接之间反复横跳——只需要打开一个你每天都在用的聊天框,说一句话,事情就办完了。

这才是那个 AI 时代真正意义上的「超级接口」。

QClaw 让我们预习了这道题,但最终交卷的人,可能另有其人。

让我有个美满旅程

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

免安装!免费玩 OpenClaw!盘点全网白菜价的一键部署“龙虾”服务器 (送 Token 额度)

作者 X-Force
2026年3月19日 01:18

自从 Manus 掀起首波 Agent 助理热度后,开源的 🦞 OpenClaw (俗称“龙虾”) 成功风靡全球并出圈。它不仅开源免费,最重要是能自己部署到任何 VPS、NAS 或本地电脑上跑任务。

因此各大 VPS 云服务器热销、苹果 Mac Mini 被疯狂扫货、云算力公司纷纷推出“一键部署 OpenClaw”的云服务;有研发能力的大厂还推出各种“龙虾变种”。OpenClaw 一下子,让整个世界都疯狂了!咱就来盘点下,近期有哪些适合新手入门尝鲜、免费“养龙虾”的好路子……

前往查看原文....


异次元还有这些值得一看:

异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

微信官方推“龙虾” 插件 ClawBot!连接 OpenClaw,秒变 AI 好友

作者 X-Force
2026年3月23日 19:27

近日,微信正式推出了官方插件 ClawBot,完成 OpenClaw 🦞 的原生对接。这次真的是微信官方直接下场了,不用再折腾第三方工具,直接微信里发个指令,就能操控你的 OpenClaw 干活。 简单来说,现在你可将任何部署好的 OpenClaw 加为微信好友,与它们聊天并接收回复,适用于学习、工作及内容创作等多种……

前往查看原文....


异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

别被机器人跳舞骗了,我们还在 GPT-2 时代| 具身智能百亿圆桌

作者 张子豪
2026年3月27日 15:10

说到机器人,过去两年科技圈里,最不缺的大概就是各种机器人「后空翻」的视频。

社交媒体上的讨论和各大公司的宣传片,也让人觉得我们距离被机器人接管,似乎就差那一个季度的距离。

刚刚,在 2026 中关村论坛年会上,几位国内具身智能的创始人,进行了一场「百亿具身智能圆桌会议」。来自银河通用的王鹤、智平方张鹏、千寻智能高阳、原力灵机唐文斌,以及星动纪元的席悦坐在一起,聊了聊具身智能的核心议题。

现在的具身智能到底发展到哪一步了,哪些场景是得到了验证?

技术方面,要让机器人真正进入我们的生活学习和工作,需要解决的问题是数据、模型还是机器人硬件?

以及未来一两年内,具身智能的主要发力场景会集中在哪些方向,工业化落地多还是真的有望进入家庭?

最后,他们也谈到了具身智能的发展,需要像自动驾驶一样,有 L3、L5 类似的标准,才能规范整个机器人行业所处的智能水平。

欢迎来到机器人的 GPT-2.0 时代

如何定义刚刚过去的 2025 年与机器人赛道全面进击的 2026 年?

五位大咖给出了高度一致的研判:2025 年是「打基础」的蓄势之年,而 2026 年将是机器人场景泛化能力提升,和商业规模化落地的元年。

千寻智能的高阳将当前的具身智能所处的阶段,比喻为大语言模型的 GPT-2 时代。

▲千寻智能联合创始人 高阳

他提到具身智能行业,在 2025 年解决了大量数据基建层面的问题,随着模型参数与数据规模的提升,2026 年极有可能迎来跨越至 3.0 时代的跃变。

原力灵机唐文斌也坦言,当前行业仍处在发展初级阶段,但在数据规模化驱动下,行业斜率(增速)极大。

他直言哪怕今天我们坐在这里谈论模型、算法,但是连一个大规模的 benchmark 都还没出现,无法准确的衡量不同具身智能的水平。

▲星动纪元联合创始人 席悦

星动纪元联合创始人席悦则提到,过去一年资本的疯狂涌入,一些 2025 年没有出现的公司,在 2026 年突然涌现;同时也伴随着很多公司突然就消失。

这是速度和加速度都飞快的一年。

银河通用创始人王鹤则提到了前段时间他们和清华大学合作的项目,让机器人也可以上场打网球。他说随着很多概念的逐渐清晰,具身智能是正在迎来从实验室走向真实世界的时刻。

得数据者得天下

和李飞飞推出的大规模图像数据集 ImageNet,成为深度学习发展中重要一环类似,具身智能的发展也需要大量的数据。

相比于 ChatGPT 这类大语言模型能够从互联网的海量文本里面提取数据,物理世界的高质量交互数据依然缺失。

星动纪元的席悦说,「数据,是当前最卡脖子的瓶颈」。

想要让机器人能在复杂的特种环境里自主工作,就需要它在真实场景里收集数据。但真实场景的试错成本太高了,没有哪个厂长愿意让一个半成品机器人在自家流水线上瞎折腾。

原力灵机则说的更直接,唐文斌认为数据本质上就是钱的问题,它不是最关键的,花钱就可以解决。真正的数据难题是需要让机器人从真实场景里面反馈数据。

但他也提到,这会是一个鸡和蛋的问题。现在的机器人不成熟,没有办法被批量部署,但是想要机器人得到进步,我们又需要机器人被批量使用。

▲智平方联合创始人 张鹏

智平方的张鹏认为,真正能让模型产生质变的,永远是一线真实场景回流的数据。而在数据之外,模型的架构和系统的设计也同样重要。

他认为具身智能是「模型+本体硬件+场景系统」的三位一体的综合实力比拼。让机器人在不同场景上,能够以更小的成本去适应更多的场景,对具身智能行业应用来说是一个非常大的挑战。

就像自动驾驶领域的特斯拉和 Waymo。谁能以最低的成本,让最多的机器人在真实物理世界里跑起来,谁就能拿到通往 GPT-3.0 时代的入场券。

做家务不是今年的优先场景

如果说 2025 年是拼 Demo、跳芭蕾、表演武术的一年,那 2026 年就是拼场景的一年。

而这些创始人们选出的落地场景,都不约而同地放弃了科幻电影里那些高大上的 C 端家庭场景,转而一头扎进了物流、公共服务,甚至是街头零售。

张鹏、高阳与席悦一致看好半结构化的工业制造、简单的服务与物流搬运场景。

特别是物流环节中那些「人类只需短时间培训即可上岗」的日结型工作,其高标准化和明确的指标要求,能成为机器人最易替代与规模化复制的突破口。

▲原力灵机创始人 唐文斌

唐文斌则给出了四个极为严苛的落地标准,堪称具身智能的「避坑指南」。

第一,必须是能容忍错误的场景;第二,必须对效率有容忍度;第三,需要一定的泛化能力,否则直接用非标自动化机器就行;第四,能够长时间作业算得平账。

他幽默地提到,在技术尚不完美的当下,「伪装成干活的跳舞」,能够提供情绪价值的展示型应用,也不失为一种极佳的商业路径。

▲银河通用创始人 王鹤

银河通用的王鹤提到了他们正在全国铺开的「太空舱」零售店。在这些充满未来感的舱体里,机器人自主帮顾客取货。

机器人取货的动作可能没有人类店员那么利索,但它新奇、酷炫,为顾客提供了极高的「情绪价值」,顾客愿意为这份体验买单。

同时,在这个过程中,银河通用已经积累了 8 万小时的真实货架取货数据。

这不仅是一个成熟的商业场景,更是一个极其巧妙的具身智能数据采集方案。

在圆桌会议的最后,他们还聊到了整个具身智能行业需要一些标准。

刚好今天央视新闻有报道,中国信通院联合 40 余家单位,发布了具身智能领域的首个行业标准,将于 2026 年 6 月 1 日实施。

该标准不仅统一了基准测试框架(静态仿真、动态仿真、真实环境、组合式),还配套建立了包含超 1 万条测试任务的题库,覆盖工业、家庭等 300 种场景,结束了行业「无标可依」的现状。

▲知名的具身智能算法评测平台 RoboChallenge

几位创始人也提到了标准、法律和安全的重要性,只有一套广泛认可的行业标准,才会有具身智能实质性和规模性的进步。

结束的时候,主持人说今天是「百亿」,希望明年能变成千亿具身智能对话。

是的,还没到万亿,机器人要想彻底接管人类,可能还需要再练习好几年。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

昨天 — 2026年3月31日首页

国行苹果 AI 一手实测:等了两年终于来了,好用吗?

作者 柯铭源
2026年3月31日 11:22

2026 年 3 月 31 日,距离苹果 50 周年纪念日还剩一天。国行 iPhone 用户的设置页面里,悄悄多了一个选项:「Apple 智能与 Siri」。

没有发布会,没有新闻稿,甚至没有一条来自官方社交媒体的预告。Apple Intelligence 就这样以一种几乎静默的姿态,落在了中国用户的手机上。

从 2024 年 6 月 WWDC 的高调亮相算起,国行用户为这一刻等了整整 21 个月。

爱范儿在第一时间完成了激活和全面实测,先说结论:

体验很「苹果」,但效果很一般。但

如果你期待的是一个能跟 Gemini 或豆包正面交锋的 AI 系统,这不是你想要的。

值得注意的是,这次苹果国行 AI 突然上线可能是一次意外,并非正式发布,目前苹果已经下线这个版本。

一向以苹果爆料闻名的彭博社记者 Mark Guman ,称国行 AI 还没拿到监管批准,他给出了以下理由:

  • 苹果国行 AI 上线,官方不可能没有任何宣传动作。
  • 苹果不会在中国凌晨发布国行 AI 。
  • 它会调用 Google 作为视觉识别引擎,这在中国本就不合理

📢 另据爱范儿最新了解,本次推送是由于软件问题,国行的 iPhone 和 iPad 设备曾短暂地可以下载其他地区适用的设备端 Apple 智能并启用该功能。

在问题出现后,苹果已迅速修复。

据悉, Apple 智能尚未在国行推出,推出时间依监管部门审批情况而定。

国行苹果 AI 怎么激活?

首先,你需要把设备更新 iOS 26.4 系统,然后进入「设置」,会发现原来的「Siri」入口已更名为「Apple 智能与 Siri」。

点击进入,再点亮 Apple 智能的开关,系统开始下载端侧模型。

整个过程需要连接 Wi-Fi,下载时间取决于网络状况,我们实测大约花了十分钟左右。下载完成后,一系列新功能随即解锁。

机型方面有硬性要求:iPhone 15 Pro 及后续机型才能运行 Apple 智能,更早的 iPhone 15 标准版因芯片和内存限制被排除在外。

需要留意的是,部分功能在首批推送中存在激活失败的情况。我们在实测过程中遇到了个别功能无法正常开启的状况,重启后恢复正常,但倒也并不意外。

新功能实测:速度很快,体验一般

打开新的 Siri,最直观的变化是视觉层面,屏幕边缘泛起的柔光替代了过去那个悬浮在底部的圆形动画,整个交互节奏明显更流畅。

Siri 现在同时支持语音和文字输入,这意味着你在会议室或者安静的公共场合也能通过打字跟它交流,不用担心开口说话的尴尬。

语义理解能力有所提升,能处理一些上下文连贯的对话。但在我们的实测中,Siri 的深度对话能力距离 ChatGPT 或者豆包仍然有肉眼可见的差距。

值得注意的一点是大模型调用的问题。

国行版 Apple 智能调用的后端模型情况比较复杂。视觉识别 AI 方面,我们通过 iPhone 16 的「相机控制」按钮实测,调出的视觉识别引擎应该来自 Google。

而在 Siri 的对话和内容生成环节,爱范儿实测发现是有可能调出 GPT 的,网上也有调出百度文心大模型的。

这一点颇为微妙,因为此前业界普遍预期国行版只会接入百度和阿里的模型。具体的模型调用策略,苹果官方尚未给出明确说明,也许跟网络环境高度相关。

写作工具覆盖了系统级文本输入场景,包括备忘录、邮件、信息等原生 App。选中一段文字后,可以调用润色、改写、摘要等功能。

速度是写作工具最令人印象深刻的地方。

由于模型运行在本地,从点击到结果呈现几乎没有感知延迟。在备忘录里选中一段 200 字的草稿,点击「改为专业语气」,不到两秒就输出了完整结果。这种即时反馈对日常使用来说体验非常好。

但端侧模型的能力天花板也肉眼可见。

复杂长文本的摘要有时会遗漏关键信息,语气改写偶尔会产生不够地道的表达。跟调用线上大模型的写作工具相比,它胜在速度和隐私,输在精度和灵活度,在云端模型面前,苹果的 AI 写作工具就像小学生。

Apple 智能下载完成后,桌面会新增一个「图乐园」App。

它支持根据文字描述生成图片,提供素描、插画、动画三种风格。你可以输入描述,也可以直接用照片库中的人脸作为素材,生成带有本人特征的艺术风格图像。

生成速度很快,大约三到五秒就能出图,这得益于端侧扩散模型的优化,但手机会明显发热。

苹果显然没有把图乐园定位成一个专业创作工具,它更像是一个系统级的趣味配件,如果你真要玩 AI 修图,请出门左转选择豆包。

AI 消除是本次更新中最实用的功能。

在照片 App 中打开一张图片,选择消除工具,用手指涂抹需要去除的主体,系统会自动识别并完成消除和背景填充。 好消息是速度快到令人惊讶。

选中、涂抹、消除,整个过程不超过三秒,完全在本地完成。日常清理照片中的路人、电线杆、垃圾桶之类的干扰物,效率极高。

坏消息是,精度不够。

在我们的实测中,AI 消除能够快速识别并去除主体,但细节层面存在明显瑕疵。

放大图片后可以看到阴影残留、边缘模糊、填充纹理不连续等问题。

如果是消除一个背景简单的小物体,效果尚可;但面对复杂背景或者大面积消除,画面破绽一目了然。

跟 Gemini 或者豆包的消除功能相比,Apple 智能的 AI 消除有明显差距。但苹果选择把所有处理放在本地,换来的是隐私和速度,代价就是质量上的折让。

比较私人的照片资料,也许端侧模型用起来会更让人放心一些。

系统级翻译功能现在也被纳入 Apple 智能的体系。

支持实时对话翻译和文本翻译,在信息、Safari 等场景中可以直接调用。响应速度很快,可以提前下载好语言包,实测在 iPhone 或者 AirPods Pro 3 上都能激活。

但在翻译质量上,它跟 DeepL 或者 Google 翻译的差距仍然存在,特别是在长句、专业术语和语境判断上。翻译功能对于苹果来说更像是一个系统级的实用补充,而非要在翻译赛道上跟专业选手竞争。

整体来看,Apple 智能国行版的整体体验可以用两个词概括:快,安全。 快,是因为绝大多数功能运行的都是端侧模型。

文本润色、信息总结、AI 抠图、消除,所有操作的响应速度都非常流畅,没有云端调用常见的等待感。这种「想到即得到」的交互节奏确实是苹果的强项。

安全,则体现在数据处理全部在本地完成,不会上传至云端。

对于隐私敏感度日益提高的国内用户来说,这是一个不可忽视的加分项。你的照片、文字、对话记录不会离开你的设备,这一点苹果做到了。

但「快」和「安全」的另一面,是端侧处理的质量上限。

跟调用线上大模型的竞品相比,Apple 智能在消除精度、文本理解深度、图像生成质量等维度都存在可感知的差距。

苹果在隐私与性能之间做了一个明确的选择,而这个选择的代价,用户在每一次使用中都能体会到。

为什么苹果 AI 迟迟不来?

Apple Intelligence 首次亮相于 2024 年 6 月 10 日的 WWDC24。

那场发布会上,苹果做了一件前所未有的事情:把「AI」这两个字母放进了自己的核心叙事。

在此之前,苹果一直刻意回避这个缩写,更愿意用「机器学习」之类的说法来描述自己的技术能力。但 OpenAI 掀起的生成式 AI 浪潮改变了一切,苹果也不得不正面迎战。

Apple Intelligence 被描述为一个「个人智能系统」,核心架构是端侧约 30 亿参数的小模型加上云端通过 Private Cloud Compute 调用的大模型,底层跑在 Apple Silicon 上。

在那场发布会上,苹果跟 OpenAI 达成了 ChatGPT 集成协议,Siri 在遇到超出本地能力的问题时可以调用 GPT。

2024 年 10 月,Apple Intelligence 随 iOS 18.1 在美国率先上线,随后逐步扩展到英国、澳大利亚、加拿大等英语市场。12 月,更多英语地区获得支持。

2025 年 3 月 31 日,iOS 18.4 更新让 Apple Intelligence 支持了简体中文、日语、韩语等多种语言。

但国行迟迟不来。

苹果最初的计划是在 2025 年中将 Apple Intelligence 带到中国市场,可惜这个时间表几乎从一开始就注定要被推翻。

由于合规要求,无论是苹果自己的云端模型还是 OpenAI 的 ChatGPT 都无法直接在国内使用,这意味着苹果必须找到本地合作伙伴。 苹果先是接触了百度,尝试接入文心一言,但据报道在技术对接和模型表现上遇到了障碍。

随后,苹果转向阿里巴巴。2025 年 2 月,阿里巴巴集团董事局主席蔡崇信公开确认了双方的合作关系。

根据方案,阿里的通义千问将作为 Apple Intelligence 在国行设备上的模型底座,同时负责内容合规审查。阿里还会在苹果的端侧模型之上部署一个审查层,确保 AI 输出符合国内法规要求。

但随着 2025 年上半年,世界局势的急剧变化,以及 AI 行业的迅猛发展,苹果的国行 AI 也从「行货」变成了「期货」。 此后,国行版 Apple Intelligence 的上线日期经历了多次推迟。

最初锚定 2025 年中,推迟到 iOS 18.6(2025 年夏),再推迟到 iOS 26.1、iOS 26.2、iOS 26.4。

2025 年 11 月,彭博社记者马克·古尔曼在 Power On 专栏中直言,国行版落地「遥遥无期」。

他指出,除了监管问题之外,Apple Intelligence 本身的工程进展也不顺利,模型性能未达预期。

最新的消息是,苹果计划在 iOS 27 中开发 Siri 的第三方 AI 接口,同时与 Google Gemini 深度合作,双管齐下来提升苹果 AI 的使用体验——但这种把半条命交给合作伙伴的做法,也意味着苹果在这轮 AI 大模型的军备竞赛中已经输了。

苹果能做的,就是牢牢把住 AI 硬件的入口——数十亿级的苹果生态设备。

这也是为什么,国行 Apple 智能必须尽快推出的原因,苹果要赶在 WWDC26 之前,完成全球范围的布局,为 AI 时代的 App Store 扫清障碍。

2026 年 3 月 31 日。距离苹果成立 50 周年的 4 月 1 日恰好只剩最后一天。苹果在 3 月下旬刚刚宣布了创业 50 周年纪念活动,Tim Cook 发布公开信回顾公司 50 年的历程,全球多地 Apple Store 举办了特别活动,爱范儿也受邀参加了苹果在成都和上海的特别演出。

就在这个时间窗口里,Apple 智能悄悄降临国行设备。 苹果没有解释为什么选择这个时间点,也没有给出关于合作模型、审批进展的任何官方说明。但时间节点本身已经足够说明问题:

在迈入下一个 50 年的门槛上,苹果大概不希望自己最大的海外市场之一仍然被排斥在 AI 时代的门外

图自彭博社

从商业角度看,这也合理。中国市场的 iPhone 销量在过去两年持续承压,Tim Cook 本人多次在财报电话会上承认,Apple Intelligence 的缺席是国行 iPhone 竞争力下滑的原因之一。

与此同时,华为、小米、OPPO 等国产厂商早已在 AI 功能上全面铺开,部分品牌还陆续接入了 DeepSeek 和龙虾,体验差距越拉越大。

苹果需要这个功能落地,而且需要在 50 周年这个全球瞩目的节点上落地。

把 Apple 智能放回它该有的坐标系里来看:它不是一个要跟 ChatGPT 或 Gemini 争夺「最强 AI」头衔的产品,它是苹果把 AI 能力融进系统层的第一步。 端侧模型带来的速度和隐私优势是实实在在的。

对于普通用户来说,能在本地完成文本润色、照片消除、信息摘要这些日常操作,不需要把数据交给任何云端服务,这件事本身有价值。

但如果你已经习惯了豆包、Kimi、DeepSeek 这些国产 AI 产品的能力水准,Apple 智能目前的表现大概率会让你觉得「就这?」。

端侧模型的参数量级和推理精度决定了它的上限,苹果在隐私和性能之间做出了清晰的取舍,而你需要判断这个取舍,是否符合你自己的需求。

等了快两年,Apple 智能终于来了。它迟到得太久,以至于我们对它的期待已经从「改变游戏规则」降到了「先能用再说」,但它确实来了。

在苹果 50 岁生日的前一天。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌
❌