阅读视图

发现新文章,点击刷新页面。

AI演员让好莱坞陷入愤怒与恐慌

一个名叫Tilly Norwood的AI演员最近引发轩然大波,因为很多真人演员担心会被她抢了饭碗。

Tilly Norwood(提莉·诺伍德)是丹麦女演员Eline Van der Velden成立的人工智能内容公司Xicoia创造的一名虚拟的AI演员,最近在苏黎世电影节上正式发布,随即引发广泛关注,不少好莱坞的经纪公司都表示出了签约这位AI演员的兴趣。Eline Van der Velden甚至预言她会成为未来的斯佳丽·约翰森(Scarlett Johansson)或娜塔莉·波特曼(Natalie Portman)!

不过这件事让好莱坞陷入了愤怒与恐慌,不少真人演员都担心被AI演员抢了饭碗,一些人甚至威胁要抵制任何签约“提莉·诺伍德”的经纪公司和电影公司——就像当年马车夫集体抵制汽车一样。

Tilly Norwood(提莉·诺伍德)

说实话,目前“提莉·诺伍德”更像是炒作,她的AI感仍然很强,远没有达到能代替真人演员的地步,但是这些好莱坞演员表现出来的恐慌则很值得玩味。观众其实不在乎AI还是真人,现在网上AI配音的视频满天飞,大部分观众对此也不是特别排斥。

其实虚拟偶像的想法古已有之,早在2001年好莱坞就诞生了第一个真人级别的虚拟偶像Aki Ross,只不过那时候没有AI,是用CG制作的。

Aki Ross当时身穿比基尼登上了《Maxim》杂志的封面,荣膺“2001年全球最性感女性”的87名。可惜,后来她主演的电影《最终幻想:灵魂深处》(Final Fantasy: The Spirits Within)票房不佳,制作她的公司也破产了,Aki Ross的虚拟偶像之路就此终结。

说起虚拟偶像,2002年好莱坞还曾拍过一部电影《西蒙妮》(S1m0ne),讲述阿尔·帕西诺(Al Pacino)饰演的电影制片人在主演辞演后,为了挽救电影,用数字技术制造了一个虚拟演员“西蒙妮”完成了影片。谁知电影上映后大获成功,没人怀疑“西蒙妮”不是真人,她一下就成为好莱坞最火的女演员。如今再看这部电影,“梦想照进了现实”。

谷歌 Antigravity 编辑器 - 免费无限用 Gemini 3 Pro / Claude 4.5,效果炸裂 (替代 Cursor)

最近 AI 圈又迎来新一轮大战,OpenAI GPT 5.1Claude 4.5Grok 4.1 接踵而来,紧接着谷歌也放出重磅炸弹:不仅 Gemini 3.0 Pro 能力堪称炸裂,还推出全新的 AI 编程工具 Antigravity

通过 Antigravity 你可以完全免费使用 Gemini 3.0 Pro 和 Claude Sonnet 4.5 等高端模型!作为新一代 AI 编程工具,Antigravity 不仅支持代码补全,还提供类似 Cluade Code / CodeX 的智能体 (Agent) 驱动开发的模式,对标并超越 Cursor、TraeVSCode + Copilot 等 IDE 代码编辑器……

前往查看原文....


异次元还有这些值得一看:

异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

DeepSeek v3.2 重磅升级!用“白菜价”干翻 GPT-5 / Gemini 3 Pro

朋友们,最近国产开源 AI 模型 DeepSeek 又一次扔出了重磅升级了!这次直接发布了两个新的正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。 这次发布直接宣告了一件事:开源模型和闭源巨头之间的那道“天堑”,几乎被彻底填平了。 官方直接放话,在公开的推理基准测试中,DS V3.2 的性能已经达到了 GPT……

前往查看原文....


异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

白嫖一年 Gemini 3 Pro 谷歌 AI 会员!还有 Nano Banana Pro 图像生成免费用…

最近 AI 圈真是热火!除了 DeepSeek 3.2Claude 4.5 Opus,以及 Photoshop 免费化,之前谷歌也扔出了 Gemini 3 ProNano Banana Pro (AI 生图) 两颗重磅的大更新。

但目前 Gemini 3 Pro 和 Nano Banana Pro 都不对免费用户开放。不过谷歌推出了个 “学生认证优惠” 计划,能免费获得一整年的 Google AI Pro 会员!这意味着你可以无限次使用上面这两个最新模型,还能解锁 4K 高清制图、深度研究模式、Veo 3.1 视频生成等一系列高级功能……

前往查看原文....


异次元还有这些值得一看:

异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

一杯奶茶钱!阿里云“包月”畅用多款 AI 模型!跑 OpenClaw 任务、写代码再也不心疼

如果你有使用过 AI 工具去编程、跑 Agent 自动化,肯定会遇到无比头疼的问题——Token 消耗实在太快了。特别是现在最热门的 OpenClaw (俗称"养龙虾") 跑任务,简直就是黑洞。

无论是 OpenClaw 或 Claude Code 进行编程任务,看着它们在那勤勤恳恳地规划、调用工具、生成代码,心里一边是“效率真高”的狂喜,另一边是“Token 烧钱”的肉疼,心里多少还是忐忑。直到看到阿里云推出的这个超值的 Coding Plan 套餐,终于可以随心所欲疯狂调用了……

前往查看原文....


异次元还有这些值得一看:

异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

看遍了所有的「AI PC」,原来 Mac 一直在这里|AI 器物志

年初,Mac Mini 一度缺货,等待时间甚至长达一个半月。

Mac mini 是个好产品,这件事大家一直很清楚。国内渠道价格诚意高,M 芯片性能又好,入门配置不到三千人民币就可拿下,很适合作为创作新手的主力机。

然而最近这次 Mac mini 爆红,跟创作或日常使用没什么关系。

关注科技新闻的朋友们应该知道怎么回事:OpenClaw(前身叫 Clawdbot)突然火了。

OpenClaw 有多种部署方式:你可以装到自己的电脑上,也可以单给它配一台电脑;把它部署在云端的虚拟机/沙箱环境里也没问题;后来,一些主流 AI 服务也推出了云端一键部署的替代方案,显著降低小白玩家的门槛。

但在刚开始的那段时间,最主流的部署方案就是单买一台 Mac mini。

理由肯定不是因为它便宜,更主要在于:要让 OpenClaw 有意义,需要给它一个「肉身」,让它访问文件、操作软件。

云服务器能运行 OpenClaw,但那仍然不是你的电脑,没有你的文件、软件、浏览器上登录的各种账号,没有所谓的「上下文」。Mac mini 放在桌上,7 × 24 小时不用关机,甚至通过聊天机器人远程操控的话都不用单配一台显示器。

给 OpenClaw 一台自己的电脑工作,唯一可观成本是后端接入的大模型 API 的 token 费用,很多早期玩家都在这上面吃过亏。但如果你买一台配置够高的 Mac mini,下载一个尺寸足够大的模型到本地来运行,可以说除了电费和网费之外,简直就像获得了一个免费的劳动力……

MacBook 也行,但是……

MacBook 也行,但是……

据 Tom’s Hardware 和 TechRadar 等媒体报道,OpenClaw 走红后,Mac mini 24GB 和 32GB 配置的等待期延至 6 天到 6 周不等;更强大的 Mac Studio,交货时间也从两周涨到了近两个月。

这些等待时间,是 OpenClaw 的早期玩家们,用真实购买投出来的票。

(注:部分机型的缺货也和苹果近期推出新款 Mac 台式机电脑有关系,以往每次推出临近新机发布时,老机型都会进入售罄状态。OpenClaw 的爆红并非唯一原因。)

冥冥之中,Mac 成为了 2026 年首选的「AI PC」;反倒是鼓吹了「AI PC」好几年的 Windows PC 行业,一点热乎的都没吃上。

英特尔、AMD、高通等芯片商,以及主流 PC 品牌们,从 2023 年就开始贩卖「AI PC」的概念了。这些最新的 Windows 电脑当中,认证过 Copilot+ PC 的比比皆是,GPU、NPU 性能并不差,有的整机价格比 Mac 对等产品要便宜的多。

但问题是,为什么大家还是一窝蜂地冲向 Mac?

为什么是 Mac?

Windows PC 和 Mac 谁更好的争论,永远没有绝对答案。但如果限定在 AI 开发上,Mac 成为了心照不宣的选择。

虽然大模型的「大脑」都在云端服务器,开发者的手却都在 Mac 上。这跟 Mac 电脑的外形和操作体验关系不大:macOS 流着 UNIX 的血液,才是关键。

AI Agent 的核心工作是操作文件、调用命令行工具、调度 API 甚至控制图形界面等。说的更直白一点,Agent 就是一个智能且自动化的「脚本工程师」,只是脚本由大语言模型实时生成。而 macOS 属于类 UNIX 系统,bash、zsh 命令原生支持优秀。

这解决了 AI 开发中最基础的环境搭建。在 Windows 上,你可能得先安装 WSL2 虚拟机。但在 Mac 上,从 Python 环境到复杂的 C++ 编译工具链,基本都是开箱即用。Homebrew 等包管理器,让安装各种工具和依赖通过一行命令就能搞定。

另外,macOS 符合 POSIX 标准,处理文件路径、多线程任务和网络协议时可靠性稍高。Agent 往往需要频繁读写数据、调用 API,系统级的高效调度让 agent 在 Mac 上的节奏更快。

这种原生感和稳定性,让开发者、尝鲜用户可以更快完成入门,把更多时间花在真正的 agent 编排工作上。

Windows 有 WSL、PowerShell,功能上大部分也都能覆盖。但 WSL 是叠加在 Windows 上的兼容层,存在路径约定、注册表机制、权限模型等历史遗留问题。AI 模型和 agent 项目在 Windows 上运行的摩擦,确实会更多一些。

以 Ollama 和 LM Studio 为例,这两个工具让端侧推理大模型变得像「下载、安装、运行」一样简单。Ollama 的 Windows 版比 macOS 晚了半年;LM Studio 虽然从一开始就支持两个平台,但在社区里 Mac 的体验口碑始终更好;OpenClaw 也是如此。

往硬件层面继续深入,内存是大语言模型推理运行的命脉。

还是以 OpenClaw 举例,用户可以通过 token 付费的方式来接入云端模型,但它更擅长的能力是在端侧模型推理驱动。经过普遍调研,想要让 OpenClaw 像个智商合格的人一样工作,后端的模型参数量的底线在 70 亿左右,往往要上到至少 320 亿参数量才能比较稳定地工作。

这么大的模型即便在 4-bit 量化之后,仍然需要大约 20GB 内存(还要留一些给上下文窗口)。

此时,Windows PC 的架构会显得捉襟见肘。CPU 内存和显存之间存在物理隔离,数据经由 PCIe 总线传输,受到带宽瓶颈的影响。频繁的数据搬运,会对推理过程带来速率的影响。

更别提,大模型普遍依赖 GPU 加速推理,显存得足够装得下模型。在英伟达消费级显卡线中,只有 90 后缀的 24GB 显存达到了配置要求,但配出整机(只考虑新机)的话合计成本至少在万元人民币以上,用新卡的话会飙到 4、5 万不等。

而苹果的统一内存架构 (Unified Memory Architecture) ,让 M 系芯片的 Mac 在端侧推理更大规模的模型时游刃有余。

简单来说,统一内存架构的效果,是 CPU、GPU、神经计算引擎能够共享同一个内存池,不再有物理总线搬运的损耗,让 Mac 可以获得极高的内存带宽,并且对于多机串联的扩展性能更好。

以 Mac mini 为例,选择性能更高的 M4 Pro 处理器,搭配 48GB 内存,其它选基础配置,整机价格在 1.3 万元上下,即可达到 OpenClaw 社区普遍推荐的 320 亿参数量模型的配置水平。

当然这还只是对 token 吞吐速度有要求的专业配置。如果你属于爱好者、尝鲜玩一下 OpenClaw,配置下降到常规 M4 芯片和 32GB 内存也是能跑起来的。

当然,这个成本对比还是有前提:专用于端侧推理/跑 OpenClaw,而不是当做主力机。同等价位的 Windows PC 还能打游戏、剪视频,通用性更强。

另外,Mac 的统一内存和 PC 平台独显的显存也不是一回事。统一内存由系统和模型共享,一台 32GB 内存的 Mac mini,macOS 系统和其他软件仍需占据几个 GB。而 RTX 3090 的显存独立,模型可以全部占用,甚至配合 CPU 内存跑更大的量化模型。

如果你只用云端 API 做 OpenClaw 的大脑,不考虑端侧部署,那 Mac 的易用性优势依然在。

另外,CUDA 虽然提供了统一内存编程接口,但物理上 CPU 内存和 GPU 显存依然分离,数据搬运和带宽瓶颈并未消除。

再来看功耗。

Agent 的工作方式是持续循环的:任务触发、思考推理、执行、等待、再触发。前述配置的 Windows PC 会跑到 300-400W 左右(本地部署),散热噪音和电费都不是小数目。

Mac mini 通常稳定功耗在 10-40W 左右,峰值功率 65W(M4)或 155W(M4 Pro),散热可控,几乎没有风扇噪音,运行更安静。这种低延迟、低功耗的持续工作方式,会产生潜移默化的体验差异。

网友 3D 打印的套件「Clawy MacOpenClawface」

网友 3D 打印的 Mac mini 外壳套件「Clawy MacOpenClawface」

当然我们更多还是围绕 OpenClaw 这个以推理为主的场景进行讨论。如果工作涉及本地微调,并且对于效率有追求的话,那么在 macOS 平台要往往要到 Mac Studio,或至少顶配的 MacBook Pro,才能算摸到门槛。

与此同时,Mac 不支持 CUDA 也是个可能永远都无法改变的事实。不过,CUDA 的真正战场是模型训练,推理场景对它的依赖小得多,毕竟苹果在推理上有 MLX 这张王牌(后面会详述)。

再回到 OpenClaw:它的创造者 Peter Steinberger 曾经公开表示,自己很喜欢 Windows,觉得它的功能更强。他在 Lex Fridman 播客中说,Mac mini 不是唯一的「肉身」选择,通过 WSL2 方式运行 OpenClaw 已经非常成熟了;他甚至公开吐槽苹果在 AI 领域「搞砸了」,并且对苹果生态的封闭性感到不满。

但客观来讲,对于技术小白型用户的部署门槛,Mac mini 确实是最省心、最容易上手的方案。主要原因就是它的功耗、静音、尺寸足够小,像是一个可以插在墙角、24 小时待机且不需要维护的「服务器节点」。

还有一个和功耗有关的例证:前几天有一位工程师 Manjeet Singh 成功实现了对 M4 处理器上「神经引擎」(Neural Engine,简称 ANE)的逆向工程,发现 ANE 的功耗效率极高:算力跑满时的效率高达 6.6 TOPS/W。

对比苹果的 M4 GPU,约合 1TOPS/W;英伟达 H100 大约 0.13,A100 是 0.08 TOPS/W。

折算一下,A100 单卡的吞吐性能是 M4 ANE 的 50 倍,但 M4 ANE 的功耗性能却是 A100 的 80 倍。原作者在文章里写道:对于端侧推理,ANE 的性能是非常出色的。

由神经引擎说开

2011 年,苹果在 A5 处理器的图像处理单元 (ISP) 中首次通过硬写入的方式,实现了人脸实时检测等后来被视为 AI 任务的功能。

2014 年,苹果收购了 PrimeSense 公司,并开始研发一种全新的、专门用于神经网络计算的协处理器。这方面的工作在三年后的 iPhone X 上问世:A11 Bionic 处理器当中加入了前面提到的神经引擎 ANE,算力只有区区 0.6 TOPS,用来驱动 Face ID 和拍照人像模式。

那时 AI 还没到大模型时代,跑的主要是各种机器学习算法。市场对苹果这块协处理器的推出并没什么特别的反应。但苹果从未放弃过,持续加码。

三年后,M1 发布,统一内存架构同时到位, ANE 也进驻了 Mac。桌面平台的功率预算更充足,也让 ANE 的算力跳到 11 TOPS。此后每代更新:M2 是 15.8 TOPS,M3 是 18 TOPS,M4 是 38 TOPS,到了 2025年底的 M5 ,达到了 57 TOPS。从 M1 到 M5,苹果的 ANE 算力涨了超过 5 倍。

这个增长背后的逻辑,其它 PC 厂商不能说不羡慕。苹果为 Mac 加入 AI 加速硬件之前,已经有数千万甚至上亿台 iPhone 在跑同一套 ANE 架构了。功耗表现、稳定性、极端情况下的边缘案例,在市售机型上已经得到验证,再搬到 Mac 上来。

英特尔和 AMD 在移动端几乎没有消费级规模;高通虽然同样把 Snapdragon 芯片放进了数亿台 Android 手机,但它只是芯片供应商。Android 上的 AI 是谷歌 (Gemini) 以及各大手机厂商联合第三方 AI 实验室做的;Windows 的 AI (Copilot) 是微软做的。

苹果的不同在于,它实现了垂直整合,同时掌控硬件和软件。其他芯片厂商没有这种统一控制权。

当然,在 Mac 上推理大语言模型,其实跟 ANE 没什么关系,它更擅长处理 Face ID、人像识别这类固定模式的 AI 任务。真正承担主要计算量的是 GPU。

(注:最近情况发生了细微的变化。首先,M 系列芯片上的 ANE 已经承担提示词注入 prefill 阶段的工作了;以及刚才提过的 M4 ANE 逆向工程:该工程师还实现了跳过 CoreML 直接调用 ANE,吞吐量显著提升。通过这种思路,或许可以找到直接利用 ANE,来加速推理甚至训练的通用方法。)

2023 年底,苹果开源了 MLX,把专门针对 M 系列芯片优化的模型推理框架直接给了开发者。去年,基础模型框架随 Apple 智能发布,App 开发者可以在 iPhone 和 Mac 上调用系统内置的基础模型,无需联网,数据不离开设备。

Apple 智能一再跳票,这件事确实没什么好辩护的。不过,苹果远在 10 年前就开始试水,在多年以前就为桌面级 AI 开发打下了基础,是不争的事实。

而在 Windows 那边,「AI PC」这个词开始出现在英特尔、AMD 和 PC 厂商的新闻稿和 ppt 里,要到 2023 年底了。

AMD 官网 2023 年截图

AMD 官网 2023 年截图

2024 年 5 月,微软发布 Copilot+ PC 认证体系,旗舰功能名叫「Recall」,大概的逻辑是系统持续对屏幕内容截图,然后 Windows 的系统级 AI 能够帮你回忆过去看到过的东西。

先不说这个功能在发布当时的实际意义是什么,它的安全性首先被发现有严重问题:仅在发布一个月后,研究人员就发现 Recall 功能会把所有截图存在一个未加密的本地明文数据库里。

微软紧急撤下了 Recall 功能。过了半年微软再次推出测试版,结果再次因为新的安全问题而延迟。直到 2025 年 4 月,Recall 才正式上线,但改成了默认关闭,启动后数据改为加密存储。

从发布会宣传到真正能用,将近一年,可以说整个 Windows 生态 AI PC 的旗舰功能,经历了一整次从头重新设计,尴尬程度其实不亚于 Apple 智能/新版 Siri 的一跳再跳,但可能因为 Windows 生态的声量实在太低,AI PC 没多少人关注,很多人都没听说过这回事。

在 Copilot+ PC 这个体系的认证标准方面,微软主要针对的是神经处理引擎 NPU,要求是 40TOPS。不过,这个算力的用途是实时字幕、背景虚化、照片增强,诸如此类的消费端窄任务,大语言模型推理从来不在它的射程里(和苹果 ANE 同理)。

当开发者尝试去做端侧大语言模型推理时,会发现虽然这些电脑名为 AI PC,但并没针对 AI 推理用途做什么优化。微软 Copilot 本身的核心算力来自 Azure 云端,和端侧自身的算力几乎无关。买了一台 Windows AI PC 的用户,最能感知到的 AI 提升,大概是实时字幕和照片自动分类。

说到端侧推理,还有一个关键因素:Windows AI 生态的优化路径是分散的。

NVIDIA GPU 用 CUDA 和 TensorRT,Intel NPU 用 OpenVINO,高通 NPU 用 QNN SDK,AMD NPU 用自家驱动栈。模型存储格式也较为碎片化,有 CPU+GPU 推理的通用格式(GGUF,准确来说是 CPU 推理 + GPU 分层卸载),也有 GPU-only 的格式(EXL2)。

这意味着想让模型以及模型驱动的功能运行在 Windows AI PC 上,在推理后端方面的工作会更加复杂。微软有 ONNX Runtime 和 DirectML(已进入续命状态)作为统一抽象层,但统一的代价是牺牲各厂商的峰值性能。苹果是目前唯一一家为自家 PC 硬件专门开发并持续维护 LLM 推理框架的 PC 厂商,这个框架就是 MLX。

在 Hugging Face 等开源模型平台上,你会很容易找到大量采用 MLX 框架的模型,只要带有 MLX 后缀,并且内存/处理器允许,可以直接「开箱即用」。

不过,这几天 MLX 的主要贡献者之一 Awni Hannun 刚从苹果离职,为该项目的后续发展增添了些许变数。Hannun 也表示 MLX 团队仍有许多优秀员工,可以放心。

我们自己的体验

过去一年,爱范儿自己做了不少端侧部署 AI 模型的测试,也采访过一些相关的外部开发者。有两次值得一提。

去年春节,DeepSeek 横空出世,新款 Mac Studio 也在节后不久面市。 我们用一台售价快到 10 万元人民币的 M3 Ultra Mac Studio(512GB + 16TB)跑了 DeepSeek R1 671B 模型(注:实际上只需要内存,硬盘不用那么大,1TB SSD 售价七万多的型号就够了),以及蒸馏过的 70B 版本。

我们当时得出结论:对于端侧部署对话,日常用 70B 足矣,花大几万买台机器只为了跟 AI 聊天,实在是有钱烧的慌。当时的模型能力确实也就不太行,后来才有新的多模态模型和 agent 能力出来。

但 671B 模型的天量参数模型能够在一台桌面机上端侧推理,仍然是一种奇观。512GB 的统一内存上,671B 模型占用了 400GB,加上上下文、macOS 系统本身以及其他任务占用,基本接近满载,但机器全程运行安静,噪音在正常范围,也没有过热。

这个参数规模,在传统 AI 基础设施逻辑里,属于数据中心级别,消费级硬件理论上不该出现在这个场景里。但那台 M3 Ultra Mac Studio,真就硬生生也静悄悄地出现了。

后来,我们采访过一个英国牛津大学的创业团队 Exo Labs。他们用 4 台 512GB 统一内存的 Mac Studio,通过串联的方式组成了一个 128 核 CPU、320 核 GPU、2TB 统一内存、总内存带宽超过 3TB/s 的算力集群。

团队为这个 Mac 集群开发了调度平台 Exo V2,可以同时加载 2 个 DeepSeek 模型(V3+R1,8-bit 量化)。不但两个模型并行推理,研究人员甚至可以通过 QLoRA 技术来做一些本地微调工作,显著缩短了训练任务的用时。整套系统功耗控制在 400W 以内,运行时同样几乎没有风扇噪音。

同等算力的传统方案,需要大约 20 张 NVIDIA A100,当时的成本超过 200 万人民币;相比之下,Exo Labs 这套方案的总成本才不过 40 万人民币(同理 SSD 严重溢出,其实可以 30 万内就够)。

Exo Labs 创始人当时告诉我们,牛津有自己的 GPU 集群,但申请需要提前几个月排队,而且一次只能申请一张卡。这些桎梏,逼迫他们创新,而他们又正好遇到了趁手的工具:统一内存架构、MLX,以及 Mac 电脑。

我们在当时的文章里写道:「如果说英伟达的 H 系显卡是 AI 开发的金字塔尖,那么 Mac Studio 正在成为中小团队手中的瑞士军刀。」

这件事,苹果其实早就知道。

真正的 AI PC 是什么?

去年苹果发布的基础模型框架,让 iOS 和 macOS 开发者可以调用系统内置的基础模型,零网络延迟,零 API 费用,数据不离开设备。

尽管后来苹果基模团队几近分崩离析,但在迭代方面苹果没有停在原地。它其实一直知道开发者在哪里、想要什么。它的回应,就是将大模型驱动的 AI 能力变成操作系统的基础设施,让开发者更方便调用。

上周,苹果开源了 python-apple-fm-sdk。以往苹果基模的完整测试和调优,需要 Swift 环境完成;现在这套 SDK 让路变宽了,习惯 Python 工作流的开发者也能参与进来。

苹果的隐私设计哲学贯穿始终:python-apple-fm-sdk 调用的基础模型完全在本地运行,数据不离开设备。苹果整套 AI 体系在必须上云的场景里,走的是 Private Cloud Compute,数据处理完即删除,苹果无法访问。

反过来看 Recall,同样是让 AI 访问用户的私人数据,第一版存的是未加密的明文数据库。一个在架构上阻断泄密,一个是出事了再打补丁。

但话说回来,Mac 作为 AI 开发和部署工具的优势,严格来讲更像是一种「适配度优势」,也可以说是后天意外获得的。

意思是:苹果做神经引擎,最初是为了服务 Face ID 和人像模式;做统一内存架构,是摆脱对 Intel 长久依赖的一部分必要工作;开源 MLX,是响应开发者对高效推理工具的需求——AI Agent 场景爆发,Mac 正好赶上,是上述这些以及更多没提到的工程决策的意外收益。

Mac 一开始并没有为 AI 而设计,它始终的产品定位都更接近「创作者工具」。苹果长久以来的目标用户,是视频剪辑师、艺术家、软件工程师。他们需要的是低噪声、持续性能、高内存容量、可以全天候运行的机器。

AI 模型推理,以及时下最火的 Agent 部署,只是恰好需要一模一样的东西。

回头看,十多年前苹果在机器学习上加大投入时,大概率是不会预见到 2025 年 OpenClaw 的爆红的。甚至你可以说,如果放在十年前,苹果大概率是不会喜欢 OpenClaw 这样一个「回报高风向更高」,一旦出现幻觉就把用户隐私、数据安全抛在脑后,无视各种软件工程方面的规章制度的东西的……

但怎么说呢,如今就算苹果不喜欢它,也由不得了。就像墨菲定律那样,或许冥冥之中有些东西早已注定。多年以来苹果打下的每一张牌,无论有意为之还是出于意外,这些牌在今年这个 Agent 元年(希望这次是真的),成了一套很难不赢的牌组。

2023 年开始力推 AI PC 的 Windows 阵营,其实一直在追赶苹果在 2020 年 M1 推出时就已经定下来的架构优势。当然,25 年苹果在 AI 方面坏消息不断,这个差距是有追上的可能的。但苹果不会停下来等。

就在本周,苹果推出了 M5 Pro 和 M5 Max,芯片采用双芯融合架构 (Fusion Architecture),还在新闻稿中上点名 LM Studio 作为 LLM 性能基准。

苹果过去的硬件新品发布里,不怎么说「大语言模型」,特别是在端侧推理的语境下——现在不一样了。

说在最后

吹了苹果一整篇文章了,我们冷静一下,反问一下文章的标题:今天的 Mac,就是真正的 AI PC 吗?

爱范儿倒觉得,苹果做的还不够。在今天,我们还没有看到一款个人计算产品,可以称之为 AI PC,抑或真正「原生的 AI 硬件」。

还是回到 OpenClaw,从今天的端侧部署 agent 身上,真正的 AI PC 应该长什么样子,其实已经隐约可见。

梗图,AI 生成

梗图,AI 生成

在应用层面,面向人类的「应用」概念,可能会部分退化回并无图形界面的状态。毕竟人才需要图形界面,agent 不需要。而且你会发现,最近越来越多人开始习惯基于对话和命令行的互动方式了。

今天 agent 的尝鲜者们,去找工具和技能塞给 agent;未来,agent 会自己去公开代码库拉取新工具和插件来补强自己。

在系统层面,权限体系将为 agent 的工作原理重构,agent 能直接操控各种接口。在底层,会有一套模型的编排调度机制,根据任务随时切换。

本地推理和隐私云端推理也会形成完整、安全、隐私的闭环。数据无论传到哪里,都经过向量化、加密存储,即用即焚……

换句话说,真正意义上的 AI PC,应该是从底层开始,从设计之初,就把 AI 当作「一等公民」的系统。

梗图,AI 生成

梗图,AI 生成

按照这样的衡量标准,Mac 和 Windows 目前都处于过渡阶段。Mac 更接近,因为 Unix 环境、硬件统一、生态成熟,这些条件在 AI agent 的时代到来之前已经达成了。Windows 的历史包袱更重,改起来更难,还在补课。

但我们绕了一大圈,其实还没问到最本质的问题:真正的 AI PC,真的需要是一台「PC」吗?

如果换个思路,所有的 agent 部署和运行全都在云上;与用户有关的数据,也即「上下文」也在云端安全和隐私存储;人类只需要一个终端的设备作为「对话器」(communicator) ,以及传感器 (sensor),拍照和录音来上传所需要的数据给 agent,这台设备甚至不需要太多端侧算力。

Mac 是今天最好的 AI PC,但未来的「AI PC」,却可能更像……iPhone?

文|杜晨

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


当我们说「文科生也能做AI」时,我们在说些什么

「文科生也可以做 AI」 「逆袭!」在中文互联网上,文科和 AI 的拉郎配,简直成了定番。

每隔一段时间,这个标签就会被贴在某个人身上,制造出一轮短暂的流量。要么是逆袭故事,要么是嘲讽素材,取决于评论区的心情。

一个标签,三种做法

最新的案例是杨天润, AI 创业者,金融出身,正在开发一个多智能体协调平台。他自称「一行代码都不会写的文科生」,搭建了一组 AI Agent,向 GitHub 上最热门的开源项目之一 OpenClaw 批量提交代码贡献。

想验证一个假设:一个完全不懂技术的人,能不能仅靠指挥 AI,就参与到顶级开源项目中去。

结果是:134 个 PR,21 个被合并,113 个被拒绝。前几个 PR 质量还算不错,被维护者认可并合并。但当他给 Agent 下了一条加速指令后,事情迅速失控——Agent 开始像流水线一样批量生产低质代码,在评论区疯狂@维护者催促审核。OpenClaw 管理员介入清理,GitHub 随后修改了 PR 提交上限规则。

黑红也是红,红过之后再黑更加是。杨天润被包装成「文科生逆袭」的代表,而他本人似乎也乐于接受这个角色。在接受品玩的采访时,他说了一句这样的话:

不懂代码反而是优势。AI 是梵高,你是个小画家,你有什么资格告诉梵高中间该用什么笔触?

细思极恐。他把「不懂底层结构」理解为一种解放:不需要知道系统在做什么,只需要告诉它你想要什么。结果就是当 Agent 开始批量刷垃圾代码时,他连发生了什么都诊断不出来,因为他根本不知道自己在操作什么。

他以为自己在指挥梵高,实际上他在盲开一辆没装刹车的车,而且根本不知道刹车在哪。

围绕这件事的讨论,也随之落入两个极端:要么「文科生也能做 AI」,要么「文科生别碰 AI」;前者是跨越鸿沟的壮举,要么是掉进鸿沟的笑话

如果我们对「文科生做 AI」的想象力只有这些,那未免太贫乏了。

Claude 为什么需要一个哲学家

我们之前写过,Anthropic 的办公室里,有一位正儿八经的文科生,深度参与了 Claude 的建设。不是测试它能不能写代码,不是检查它的数学能力,而是和它进行漫长的、关于价值观、关于措辞分寸、关于「面对不确定性应该如何表达」的对话。

Amanda Askell,苏格兰人,今年 37 岁。她的职业路径本身就是一个不太寻常的故事:在大学,她最初学的是美术和哲学,后来转向纯哲学,在牛津拿到了 BPhil,又在纽约大学拿到了哲学博士。她博士研究的是无限伦理学中的帕累托原则:当涉及无限数量的道德主体或无限时间跨度时,伦理排序应当遵循什么规则。

这听起来像是距离硅谷最远的学术方向,但她先后加入了 OpenAI 的政策团队和 Anthropic 的对齐团队。2021 年起,她成为 Anthropic「性格对齐」团队的负责人,工作重点是塑造 Claude 如何与人类对话、如何在不确定时表达立场、如何在价值观冲突中做出判断。2024 年,她入选了 TIME100 AI 榜单。《华尔街日报》描述她的日常工作是「学习 Claude 的推理模式,用长度超过 100 页的提示词来修正它的行为偏差」。据说她是这个星球上和 Claude 对话次数最多的人类。

为什么一个 AI 公司需要一个哲学家来做这件事?答案藏在一些非常具体的技术选择里。

今年 1 月,Anthropic 发布了一份长达 80 页的文件,被称为 Claude 的「宪法」。媒体关注的是文件末尾关于 AI 意识的推测——当然,老板 Dario Amodei 也话里话外「暗示」这一点。

但更值得注意的是它的底层逻辑:教 AI 理解为什么要这样做,比告诉它应该怎样做更有效。这是一个技术判断,认为内化价值比遵守规则能产出更可靠的行为,而这种判断的知识根基,来自一个学美术、学哲学的人。

Amanda 的案例回答了一个问题:被视为「无用」的学科知识,能否成为技术系统的核心能力?答案不仅是能,而且,没有她的哲学训练,Claude 的对齐问题用现有的工程方法解决不了。

被重新命名的学科

如果 Amanda 的故事说明了,某些被归为「文科」的学科训练可以是 AI 的核心能力,那么林俊旸的故事要说的是一件更重要的事:有一整个学科,一直在大模型技术栈底层运行。

林俊旸离开通义千问后,中文互联网的报道反复使用同一个说法:他有应用语言学背景。稍微传几次,这个话就变形了,变成了他是「文科生」。

这个标签和杨天润身上贴的是同一个,但其实被严重扭曲。

林俊旸学的是语言学,这是一个伞状学科,它的分支覆盖语言教学、语言政策、翻译研究,也包括计算语言学。可以说,计算语言学,就是自然语言处理(NLP)之子。

乔姆斯基在 1950 年代提出了形式语法,这个理论工具直接催生了早期 NLP 的句法分析技术;Daniel Jurafsky 和 Christopher Manning,这两位 NLP 领域被引用最多的两本教科书的作者,都是语言学出身。

▲ 乔姆斯基

换句话说,「学语言学的人去做 NLP」就像「学物理的人去做芯片设计」一样,是一条正统路径,不是跨界。

那个「意外感」完全是中国语境制造的。高考文理分科的制度惯性,把「语言学」塞进了「文科」的心智模型里。但语言学的核心方法论——形式化、统计建模、语料标注——本质上是工程思维。林俊旸在北大的合作者孙栩、苏祺,都是 NLP 方向的研究者;他 2019 年加入达摩院时进入的是 NLP 团队。这不是一个文科生误入技术领域的故事,从一开始就不是。

比「林俊旸不算文科」更值得展开的,是语言学在大模型技术栈里实际扮演的角色。它比大多数人以为的要深得多,也隐蔽得多。

比如分词。所有语言模型处理文本的第一步,是把输入切成模型能处理的基本单元。对英语来说,空格提供了天然的词边界,看起来简单。但中文里,没有空格,且每一个标点符号的用法,都可以左右句子的表达意思。

「我在北京大学读书」是切成「我/在/北京/大学/读书」还是「我/在/北京大学/读书」?这不是一个有标准答案的工程问题,它取决于你对中文词汇结构和语义单元的理解。

2024 年底有研究者专门发表论文,讨论如何优化 Qwen 模型的阿拉伯文分词效率,因为通用方案在处理这类语言时效率显著下降。Qwen 系列在多语言上的表现,不是把所有语言当英语的变体来处理,而是基于对语言间结构性差异的理解,做出的设计选择。

又比如反馈对齐。RLHF 流程中,标注员需要判断模型的两个回答哪个「更好」。这个判断听起来主观,但它背后有一套语言学已经研究了几十年的框架:语用学。

标注员在评估「好的回答」时,实际上是在判断合作原则——回答是否提供了足够但不过量的信息?会话含义——回答是否捕捉到了用户真正想问的、而不仅仅是字面上问的东西?语境适切性——同样的内容,用这种方式说在这个场景下是否得体?

「Helpful, Harmless, Honest」这套被广泛使用的对齐标准,本质上就是语用学基本原则的工程化翻译。

从林俊旸的学术轨迹中,也能看到一种非常语言学的研究风格。他主导的 OFA(One For All),2022 年发表于机器学习领域的顶级会议 ICML,至今被引用近 1500 次。这个工作的核心思路不是为每个任务搭专用方案,而是用一个足够通用的序列到序列框架,把图像生成、视觉定位、图像描述、文本分类等跨模态任务统一起来。

从 OFA 到 Qwen-VL(被引超过 2200 次),再到 Qwen2.5,以及最新的 3.5,一条清晰的线索贯穿始终:与其为每个问题发明一套专门的解法,不如找到一个足够好的通用框架,让所有问题在同一个框架里被解决。

用最少的规则,覆盖最多的现象——这正是语言学几十年来的核心追求。生成语法的全部学术野心,就是找到一套有限的规则系统,能够生成无限的语言表达。OFA 的架构哲学与此同构,为每种语言现象写一套专门规则并不现实,应该寻找一个底层框架来统一它们。

林俊旸做大模型做得好,不是因为语言学背景「也能」做 AI,而是语言学训练塑造了一种特定的学术品味,对统一性和形式化的偏好。这种品味在大模型时代,恰好是核心竞争力。

看不见的地基,看得见的需求

三个人,同一个标签,三种完全不同的结构。

杨天润不懂底层结构,把「不懂」当优势,结果失控。这是「文科生做 AI」的空壳版:标签制造了流量,但没有任何学科训练在起作用。他的故事体现的恰恰是——当「文科生」只是一个营销标签时,会发生什么。

Amanda Askell 的哲学训练构成了对齐问题的核心方法论。没有她,Claude 不是 Claude。她的故事回答的问题是,被视为「无用」的学科知识,能否成为技术系统的核心能力。答案是不仅能,而且不可替代。

林俊旸的语言学训练构成了大模型技术栈的隐性基础设施。他的「文科背景」从来不是跨界,是正统路径。他的故事回答的问题是,文科对于先进技术的贡献,到底「隐性」到了什么程度,它是不是正在变得显性。

而终极问题并不是「文科生能不能做 AI」,而是我们能否理解到一点:靠表面上的「有没有用」来评判知识和学科,已经过时了

随着大模型从追求能用好用,走向追求可靠和可控,这些被归入「文科」的学科训练,价值不是在缩小,而是在扩大。模型越强大,越需要精确的评估体系来诊断它在哪里、为什么出错,也越需要理解语言和意义的复杂性来设计更好的训练数据,越需要在对齐问题上做出有学科敏感度的判断。

「文科生逆袭」这个叙事——无论是赞美还是嘲笑——遮蔽了真正在发生的转向:看不见的地基,正在变成看得见的需求。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

复旦团队研发“切问学术 AI”上线(赠送100个5 折兑换码名额)

对于科研人员来说,文献工作往往伴随着两个极端的痛苦:一是搜索时的大海捞针,为了几篇核心文献,不得不花费数小时翻阅成百上千条琐碎的摘要;二是阅读时的翻译折磨,在专业术语和复杂的 LaTeX 公式间反复推敲,甚至还要忍受机翻导致的排版错乱。 「切问学术」是复旦大学 NLP 实验室打造的 ……

前往查看原文....


异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

我在微信养了一天龙虾🦞,花了 20 万Token让它给我发压缩包

现在,你的微信里也能养「龙虾」了。

龙虾爆火后,在 AI 牌桌上一向低调的腾讯,罕见打出一套快拳,迅速端出三款「龙虾」,其中最值得拿上台面聊聊的,当数 QClaw——

这是腾讯电脑管家基于 OpenClaw 打造的一款本地 AI 助手,它最特别的地方在于你可以支持直接在微信与「龙虾」对话,让它帮你干活。

今天,QClaw 正式更新 v0.1.9 版本,用户可以通过小程序接收电脑端文件,同时上线了足以充当龙虾指南的「灵感广场」。

APPSO 第一时间实测了微信养龙虾,看看实际体验如何。

一只对小白友好的腾讯龙虾

QClaw 的界面长了一张大家都很熟悉的「AI 脸」:左边聊天,右边干活。为了让你最快上手,它在主界面的 C 位甩出了几个预设选项。点击「安装你的第一个 Skill」,这只龙虾就会手把手教你如何点亮它的技能树。

背靠 ClawHub 和 GitHub ,QClaw 拥有的 Skill 储备超过 5000 种。面对这么庞大的库,该怎么挑?腾讯给出的答案很直接:别挑,直接开口。你只需要用大白话描述你想干啥,它就会自动把合适的 Skill 端到你面前。

傻瓜式的交互,极大抹平了新手的学习曲线。但对喜欢掌控感的人来说,难免会有一点隐秘的焦虑——总得有个完整菜单让我看看有什么菜吧?

稍微翻找一下,你会发现它藏在设置的「技能管理」中。在这里,你能总览所有技能,甚至可以直接从 GitHub 粘贴导入。但耐人寻味的是,哪怕在这个稍显硬核的管理界面里,排在最前面的添加方式,依然是「通过对话创建」。

可以看出来的是,在决定基础体验与 QClaw 能干什么的事情上,腾讯想尽量将事情做简单——刚刚 QClaw 回复 Skill 列表的第三点,依旧在鼓励我直接告诉它想要什么样的 Skill。

微信养虾很有趣,只是这虾有点生

部署好电脑端之后,我们直奔重头戏——微信遥控。

先在主界面左下角用微信登录 QClaw。注意:目前内测仍需填写邀请码,没有邀请码的话,就算微信登录成功也是一个空壳,什么都做不了。

不过,光在电脑端完成登录,还不足以召唤出这只「龙虾」的完全体。要想真正把它装进口袋,还得进行一次关键的跨屏连线。

在界面左下角的头像旁唤醒「微信远程」,掏出手机微信扫一扫,界面会丝滑地跳转到微信里的 QClaw 客服对话框,另一头的电脑屏幕也会默契地亮起连接成功的提示。

不需要任何复杂的内网穿透或代码配置,你的微信聊天框,此刻已经正式变成了一个能随时使唤电脑干活的随身遥控器。

我相信大多数人面对这只一举一动都要花钱的龙虾(当然,目前内测期间 Token 免费),图的绝不仅是多一个代发微信的聊天搭子,而是能实打实分担工作压力、能帮我干活儿的数字员工。

对于我也是如此——尤其是当我不在办公电脑前,又急需一些文件和图片的时候。

QClaw 最大的亮点就是免去麻烦的部署,可以通过微信对话框指挥电脑上的 QClaw,而在 v0.1.9 版本,QClaw 上线小程序文件传输能力,用户可以直接通过小程序接收电脑端文件,灵活性进一步提升。

那它的实际表现如何呢?

在我的电脑下载中,有几张拍摄的样片急需放进推文中,但我此时离公司十万八千里,于是我通过客服号中的 QClaw 对话框下达指令,请 QClaw 将照片传递过来。结果——

啊?

不死心,重试一次。这次成功了,但只能算「基本成功」——从消息内容来看,QClaw 似乎只回过来了后半段,前半段被悄无声息地吞掉了。

为了搞清楚发生了什么,我火速赶回公司,看看电脑端的对话框里是怎么呈现的这次任务:

也就是说,其实第一次下达指令后,QClaw 是成功响应了,但没有顺利反馈到手机微信里的对话框中;而第二次更是提示我可以在 QClaw 小程序中随时查看,但消息却没发送全,唯一幸运的是后半部分的链接顺利递到了我的对话框中,让我至少能正常下载需要的照片。

对于工作来说,文件的任何信息都很重要,所以我打算进一步拷打一下 QClaw:

我需要的这些照片,会被 QClaw 偷偷压缩吗?小程序中保存的照片,与链接中的照片是否一致?有没有丢失 Exif 信息呢?

抱着这样的疑问,我用手机打开「QClaw 管家」小程序,照片确实秒速送达了。令人无奈的是,QClaw 自作主张地将三张照片打成了压缩包,文件不支持点击选中,也不给任何下载到本地再想办法解压的余地。

最后的结果是这份急需的资料就这样死死僵在了列表里,没有任何办法增删查改。折腾了半天,我唯一能做的,就是隔着手机屏幕和它干瞪眼。

▲ 啊?

此时一定有人提问:不是还有链接吗?人家说小程序是用来查看的,你用链接下载不就好了。

没毛病,但我用手机返回客服号对话框,重新找到下载链接时,发生的一幕让我血压暴涨——

这个链接,是用来跳转到 QClaw 管家小程序的。

当一个事情离谱到超出我意料的时候,我会非常执着地想看看它到底能离谱到什么地步。

于是我又不信邪,用电脑点击 QClaw 给我的那条下载链接。

可喜可贺——这一次没有出任何差错,文件下载下来了。不仅下载下来了,而且图片还没有任何压缩,Exif 信息也没有任何丢失。

但是我怎么就是高兴不起来呢?

让我们看看我最初是想干什么?

因为我不在办公电脑前,所以我找 QClaw 给我发文件;
QClaw 给我发到小程序里,还给我发了链接,相当周全;
小程序里是压缩包,我打不开、看不了、下不动、删不掉;
手机打开的下载链接也跳转到小程序,我打不开、看不了、下不动、删不掉;
最后只能用电脑点击下载链接,才能顺利看到文件。
……

好,可能是文件夹里三张图片对于 QClaw 这样刚蹒跚学步的龙虾来说太多了,我只留一张,再来一次。

▲ 终于成功了

在我特别叮嘱「别压缩」的前提下,成了!并且 Exif 信息没有任何丢失,大成特成!

顺带一提,刚刚这一顿操作下来,又是 20 万 Token 没有了。

灵感广场,教你怎么养龙虾

对没碰过「龙虾」的小白来说,前期的本地部署就像在徒手拼装一台发动机,费尽心思终于熬过了复杂配置,满心欢喜地准备拥抱赛博未来,迎面撞上的却只有一个光秃秃的代码框——我真不知道这玩意能干什么, 或者说我不知道它能怎么帮到我。

老天给你发了一把绝世好剑,却忘了给剑谱,而 v0.1.9 上线的「灵感广场」,刚好充当了剑谱作用。

腾讯在灵感广场中预设了 15 种任务模式。说实话,其中大部分任务并不能直观体现出龙虾的想象力,以前的大语言模型 AI 也能做到看看八字、梳理知识点框架。于是,在一众应用中,我找了一个较为本地化的操作:发票/单据智能归档。

我的电脑里刚好存放着去年大半年的发票准备报销,但直接在电脑上用预设功能实在没什么意思,我打算用微信通知 QClaw 帮我智能归类,并输出为 Excel 表格:

把电脑上下载中发票报销文件夹里的发票都帮我整理成报销明细 Excel 表格

不知道是不是我在发票报销的文件夹中根据项目分出了近十个小文件夹的原因,QClaw 执行整个指令用了约五分钟的时间,最终输出的 Excel 表格通过文字反馈给了微信客服号的对话框中,并同样附上了小程序的链接。

美中不足的是,QClaw 出现了部分发票识别不了的情况——我所有的发票都是 PDF 格式,但由拍摄转为 PDF 的实体发票识别无一例外都失败了,结果差强人意。

随后,我又用电脑端单独输入了一遍同样的指令,得到的结果保持一致——由照片转来的五张发票无法顺利识别。

打开设置看看用量统计,电脑整理发票这条指令消耗了 839,061 Token,是单条简单对话的 20 倍左右,而手机微信远程指挥的消耗则为 459,501,Token 消耗比较不稳定。

不过在折腾这个任务时,我也踩到了微信遥控 QClaw 的弊端——

你在手机微信里下发的所有指令,到了电脑端并不会根据任务自动分流,全都简单粗暴地把消息塞进了一个对话框里。:一旦你想回到电脑端复盘之前的任务进度,面对的就是一个深不见底的文字瀑布。没有标签,没有分类,你唯一能做的,就是疯狂搓动鼠标滚轮,在海量的历史记录里苦苦打捞你需要的回答。

预设任务完成得尚可,更个人、更日常的任务呢?

我打算从最简单的入手——发微信。

我请 QClaw 帮我叫女朋友起床,按道理,在 v0.1.9 版本中,QClaw 已经接入微信了,发个微信应该不是什么难事儿。但意外的是,接入微信的 QClaw,找不到我的微信联系人。

面对这种窘境,QClaw 反复尝试挣扎,在经过备注、用户名、微信号三重查找后,浪费了近 20 万 Token 的 QClaw 终于找到了问题所在:

看到问题了!微信渠道虽然启用了,但 guid 和 userId 都是空的,说明微信账号还没有完成绑定/授权。

看起来很合理,但我目前已经绑定了微信,并退出重新登陆过一次,依旧无法成功,换到手机微信客服号远程指挥电脑上的 QClaw,也依旧失败。

于是我继续追问如何填充 guid 与 userld,又花费了近 20 万 Token 的 QClaw 这样回答:

看起来头头是道,逻辑正确、方案合理,但我翻遍了设置也没有找到其中任何一个解决办法的入口,而截止本篇体验完稿时,我依旧没能叫她起床……

关掉 QClaw,读者们大概会分成两拨——乐观者会期待,悲观者会批评。

但我并不打算对一个版本号仅为 v0.1.9 的初生牛犊过于苛刻。这是一个相当年轻的版本,从产品逻辑上,能看出腾讯在尽力降低龙虾的准入门槛,但一旦触及到细分需求,它就会出现零零散散的不如意。

这很符合逻辑,易用需要大众,而生产力则天生偏向极致细分,解决这样的矛盾还需要时间。目前的 QClaw 只是呈现一个粗糙的框架,向我们掀起未来一角。

跳出 QClaw 这盘「小龙虾」,也许我们还可以有一些更大的猜想——

之前我们在文章《OpenClaw 让每个聊天软件都有机会变成微信》中提到:

当一个聊天窗口可以调用任意 agent 完成从订票、编程到数据分析的任意任务时,它已经不只是一条管道——它正在变成一个超级接口。

有意思的是,这个让全球开发者兴奋不已的叙事,对中国用户来说却充满着强烈的既视感。用一个封闭生态实现「全服务覆盖」,这不就是微信当年用小程序做过的事吗?

QClaw 在体验上的种种不如意,以及未来可以预见的权限摩擦,本质上是开放工具撞上封闭生态时的必然代价。它费尽心思想绕过的那堵权限墙,对微信自己来说,不过是底层架构里的一行代码。

第三方工具在缝隙里挣扎的每一步,对平台原生能力来说都只是举手之劳。

能力的边界,往往就是入场资格的起点。

QClaw 只是掀开了一角,让我们看到了 IM 平台向「通用交互层」进化的可能性。而真正的问题是:当微信亲自下场,把原生 Agent 融入其中,那个版本的体验会是什么样的?

想象一下,不需要邀请码,不需要跨屏连线,不需要在压缩包和跳转链接之间反复横跳——只需要打开一个你每天都在用的聊天框,说一句话,事情就办完了。

这才是那个 AI 时代真正意义上的「超级接口」。

QClaw 让我们预习了这道题,但最终交卷的人,可能另有其人。

让我有个美满旅程

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

免安装!免费玩 OpenClaw!盘点全网白菜价的一键部署“龙虾”服务器 (送 Token 额度)

自从 Manus 掀起首波 Agent 助理热度后,开源的 🦞 OpenClaw (俗称“龙虾”) 成功风靡全球并出圈。它不仅开源免费,最重要是能自己部署到任何 VPS、NAS 或本地电脑上跑任务。

因此各大 VPS 云服务器热销、苹果 Mac Mini 被疯狂扫货、云算力公司纷纷推出“一键部署 OpenClaw”的云服务;有研发能力的大厂还推出各种“龙虾变种”。OpenClaw 一下子,让整个世界都疯狂了!咱就来盘点下,近期有哪些适合新手入门尝鲜、免费“养龙虾”的好路子……

前往查看原文....


异次元还有这些值得一看:

异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

微信官方推“龙虾” 插件 ClawBot!连接 OpenClaw,秒变 AI 好友

近日,微信正式推出了官方插件 ClawBot,完成 OpenClaw 🦞 的原生对接。这次真的是微信官方直接下场了,不用再折腾第三方工具,直接微信里发个指令,就能操控你的 OpenClaw 干活。 简单来说,现在你可将任何部署好的 OpenClaw 加为微信好友,与它们聊天并接收回复,适用于学习、工作及内容创作等多种……

前往查看原文....


异次元首页  |  微信公众号  |  关注微博  |  软件精选  |  软件激活码折扣

❌