普通视图

发现新文章,点击刷新页面。
昨天以前首页

一夜之间,全球 AI 圈都在转发这条告别推文

作者 李超凡
2026年3月4日 13:57

me stepping down. bye my beloved qwen.(我将卸任。再见了,我深爱的 qwen。)

3 月 4 日凌晨,阿里通义千问(Qwen)技术负责人林俊旸在 X 突然发文,向自己一手带大的开源模型项目告别。

这条推文瞬间引爆了整个在全球 AI 开源社区。就在前一天,他还和团队并肩发布了 Qwen3.5 小尺寸模型系列,马斯克亲自点赞,林俊旸在 X 上礼貌致谢。

没想到,这竟然成了林俊旸在千问的最后一次营业。

多位 Qwen 骨干同时离职,同事留言:我真的心碎了

林俊旸并没透露离职的原因和之后的去向,在他的的推文发出后,同为 Qwen 成员的 Chen Cheng(@cherry_cc12)转发并留下了一段意味深长的评论:

我真的心碎了。我知道离开并非你的选择。就在昨晚,我们还并肩发布 Qwen3.5 小模型。说实话,我无法想象没有你的 Qwen。

这条留言迅速引发外界猜测——「离开并非你的选择」,暗示林俊旸的卸任或许并非出于个人意愿。

与此同时,更多 Qwen 核心团队成员宣布离开:

Kaixin Li(@kxli_2000),新加坡国立大学毕业,Qwen3.5、Qwen-VL(视觉语言模型)、Qwen-Coder 的核心贡献者。

他在 X 上发文告别:「Signing off from @Alibaba_Qwen. Grateful for the chance to work with such brilliant minds. Proud of our impact. Onwards and upwards!」

Binyuan Hui(@huybery),阿里高级研究员,OpenDevin 开源项目发起人,Qwen-Coder 系列模型的主要技术负责人。其 X 个人简介已改为 「former MTS at Qwen」。

他在代码生成、自然语言转 SQL 等领域有深厚积累,曾主导推出 Qwen Chat 网页界面,让 Qwen 模型更易用。

Wenting Zhao。Qwen 团队研究科学家,在 X 上称林俊旸的离开是 「the end of an era」(一个时代的结束),感谢他推动 Qwen 在开源 AI 和工程领域的进步。

一夜之间,阿里最核心的开源大模型团队就经历了一场人事地震,而林俊旸的离开也引发了全球 AI 社区的关注。

Hyperbolic Labs 的 CTO Yuchen Jin 回忆与 Qwen 团队在模型发布时的深夜协作,称林俊旸帮助 Qwen 与全球开发者社区建立了紧密联系。

Hugging Face 亚太生态系统负责人 Tiezhen Wang 则 称林俊旸的离开是对 Qwen 来说是「an immense loss」(巨大损失。)

从北大语言学硕士到阿里最年轻 P10

林俊旸的履历,堪称中国 AI 新生代技术人才的典型样本。

1993 年出生的他,本科就读于北京大学计算机科学专业,硕士却选择了外国语学院的语言学与应用语言学——这段「跨界」经历,为他后来在多模态大模型领域的突破埋下了伏笔。

2019 年硕士毕业后,林俊旸以应届生身份加入阿里巴巴达摩院智能计算实验室,成为 M6 多模态预训练模型团队的一员。

2022 年,他主导研发了通用统一多模态预训练模型 OFA 和中文预训练模型 Chinese CLIP,同年被任命为通义千问技术负责人。

2025 年,32 岁的林俊旸晋升为阿里史上最年轻的 P10 级技术专家。

而在林俊旸的带领下,Qwen 系列模型创造了令业界瞩目的成绩。

  • 2023 年 8 月,Qwen 首次开源
  • 2024 年,开源 Qwen2 系列,72B 模型登顶 LMSYS Chatbot Arena 开源榜首
  • 2025 年,推出万亿参数旗舰模型 Qwen3-Max,跻身全球前三
  • 2026 年 3 月,Qwen3.5 小模型获马斯克点赞

截至目前,Qwen 系列模型全球下载量突破 6 亿次,衍生模型超过 17 万个,超越 Meta 的 Llama 成为全球第一大开源模型家族。这是中国开源 AI 模型在全球影响力版图中的一次关键扩张。

模型即产品

林俊旸不仅是一位技术专家,更是 Qwen 在全球开发者社区的「代言人」。

在 X 上,他定期发布模型更新、分享 benchmark 结果、与全球开发者互动——在 AI 实验室争夺开发者心智的今天,这种活跃的公共形象让 Qwen 在国际舞台上拥有了罕见的「人情味」。

今年 1 月的 AGI-Next 前沿峰会上,他提出了一个颇具前瞻性的观点:

「模型即产品。今天做基础模型本身,其实也就是在做产品,研究人员也需要像产品经理一样,把研究成果做成真实世界可用的系统。」

2025 年 10 月,他还宣布在 Qwen 内部亲手组建机器人和具身智能小组,试图让模型「从虚拟世界走向现实世界」。

千问站到了新的十字路口

林俊旸的离职,只是阿里通义实验室人才流失的冰山一角。

过去两年,通义实验室经历了多轮核心人员离职:

  • 周畅(原通义千问大模型技术负责人):2024 年被字节跳动以千万年薪挖走,阿里随后提起竞业诉讼
  • 鄢志杰(原语音团队负责人):达摩院「扫地僧」之一,2025 年离职
  • 薄列峰(原多模态、视觉负责人):2025 年离职

也难怪有人调侃,阿里在 AI 领域已逐渐成为培养高端人才的’黄埔军校。

而就前两天,阿里刚刚宣布将大模型 B 端品牌和 C 端应用品牌统一为「千问」,「通义千问」的名称将不再使用。

千问在刚刚过去的春节 AI 大战,也刚刚打了一场胜仗。

AI 产品榜发布的全球 AI 应用最新数据显示,MAU(月活用户数) 排名前三的 AI 应用分别为 ChatGPT、豆包和千问,其中,千问以 2.03 亿 MAU 成为全球第三大 AI 应用,并以 552% 的增速居全球第一。

今年春节,千问发起「请客活动」,上线买奶茶、点外卖、订票等「办事」功能,吸引 1.3 亿用户在千问「一句话下单」累计超 2 亿次,相当于全国平均每 10 人就有 1 人在千问下单。

QuestMobile 数据披露,该活动前两日即吸引超 3000 万用户参与,将千问 DAU 从 707 万推高至 7352 万,增速高达 940%。春节结束后,千问与豆包 DAU 差距大幅缩小,稳定至 4000 万上下。

对于阿里来说,如何在人才流失与组织调整的双重压力下,继续保持 Qwen 的技术领先和开源影响力,将是一个严峻的考验。

阿里千问正站在一个关键的十字路口。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


微信可以养龙虾了?腾讯一天甩出三只虾,最后这个大招有点狠

作者 李超凡
2026年3月9日 17:22

上周腾讯在深圳办公室楼下搞万人装 OpenClaw 活动,造就了一场新时代的「送鸡蛋」盛会。连马化腾都在朋友圈感叹「没有想到会这么火」。

昨天,深圳龙岗区发布了一份史无前例的「龙虾」补贴政策,更是让人们高呼:龙岗区改名龙虾区

今天更刺激的来了:一天里,腾讯的 CSIG(云与智慧产业事业群)直接发布了三款适配 OpenClaw 的产品/更新。

它们分别是:

  • QClaw,来自腾讯电脑管家团队,现在也属于 CSIG 了?)
  • WorkBuddy
  • 腾讯云轻量云

其中最值得关注的就是 QClaw。

这是腾讯电脑管家基于 OpenClaw 打造的一款本地 AI 助手,可以一键安装。通俗的话就是 OpenClaw「套壳」,去年此时也有一个火遍全网的套壳 Agent 产品,叫 Manus。

重点来了, QClaw 具备一个现在所有 OpenClaw 产品都没有的「杀手级」功能——接在微信和龙虾对话,让它帮你干活。

目前 QClaw 还没正式开放内测,APPSO 也将第一时间跟大家分享体验。

QClaw 网站🔗
https://claw.guanjia.qq.com/#LINK_COPYRIGHT

让「养龙虾」变得像装微信一样简单

根据官网信息,它支持 Mac 和 Windows 双端,内置了 Kimi-2.5 模型,内测用户展示的界面显示可默认关联到 Kimi、Minimax、GLM、DeepSeek 等内置模型,还可让用户自定义大模型。

当然,最最最重磅的功能,是可以零配置直接关联微信,无论你是在通勤路上还是躺在沙发上,在微信给这只「龙虾」发条消息,它就能远程操控你的电脑干活。

▲图片来自:特工宇宙

QClaw 背靠着一个庞大的 Skills 生态,链接了 ClawHub 和 GitHub,拥有超过 5000 多种 Skills 储备。这意味着它不仅能陪聊,还能帮你跑代码、查数据、甚至管理项目,技能树点得满满当当。

这只龙虾还拥有「持续记忆」的能力,它会像个老朋友一样记住你的偏好和上下文,用得越久越顺手,真正长成懂你的模样。

至于很多人关心的数据安全问题,QClaw 数据全部留在本地,不上云端。

当然,由于需要执行系统级操作(如文件操作、浏览器控制等),你需要授予一定的权限。建议设置强密码和身份验证(Token),限制聊天范围(仅允许可信联系人),敏感操作开启二次确认。

Qclaw 的接入流程主打一个「傻瓜式」操作,看起来还是非常友好的:
1. 下载客户端:目前支持 Mac 和 Windows 双平台(暂时不开放下载)。
2. 扫码绑定:安装打开后,用你的微信扫一下屏幕上的二维码。
3. 开始使唤:绑定成功后,你的微信里就多了一个「龙虾」好友。

在微信 QQ 「养龙虾」能干嘛

说了这么多,QClaw 到底能干嘛?

目前官网并不支持下载,在官方的内测群消息,预计下周正式开放内测,会以邀请码的形式开发,而且放言内测期间免费,解决 Token 焦虑。

APPSO 也给大家附上内测登记链接 :https://wj.qq.com/s2/25871229/abe7/


这么说吧,当你在外面浪的时候老板突然要数据,你只需要对着微信说一句「帮我打开桌面的 Q3 报告.xlsx,把第 3 列数据求和」,它就能远程操控你的电脑,打开文件、算好数据,直接结果甩回微信给你。

人在咖啡厅,活在工位上,这才是真正的远程办公自由。

别人还在苦哈哈地想选题、写文案、回评论的时候,你只需要丢一句「帮我在小红书发一条关于 AI 效率的笔记,并自动互动」,它就能生成笔记、一键发布,甚至自动回复评论帮你涨粉。

你负责躺,它负责卷,这会是以后社媒运营的终极形态吗?

编程这些常见功能也同样支持,你说一句「创建一个 Chrome 插件项目,自动提交到 GitHub」,它就能建文件夹、写代码、Push 到仓库一气呵成,全程零手动。

导师说「下周交综述」但你连论文标题都没看过?别慌,告诉它「搜近 3 年 LLM Agent 的综述论文,整理成 PDF」,检索、筛选、写综述、导出 PDF 全套服务直接打包发到你手上。

在生活中你可能没有对象,但你可以有一个每天早上 8 点准时提醒你天气的 AI,下雨叮嘱带伞,降温催你加衣,比你妈还准时,比你对象还靠谱——如果有的话。

如果这个产品正式上线,大概是目前市面上门槛最低的 OpenClaw 连接方案之一了。而且它把复杂的 Agent 技术封装成了一只可以在微信里随时呼叫的「龙虾」。

QClaw 虽然做到了「在个人微信里直接和龙虾交互」,但它和飞书、企业微信那套 OpenClaw 接入完全不是一回事。

就在今天上午,企业微信也官宣了 OpenClaw 接入智能机器人,不仅能直接对话,还支持通过 OpenClaw 快速写入数据到智能表格。

同时腾讯版龙虾 WorkBuddy 也正式上线,完全兼容OpenClaw的技能,它还能接入QQ、飞书、钉钉等工具。

腾讯追赶龙虾动作之快,几乎是在抢着表态。

说实话,微信要接入龙虾,技术上根本不是什么难题。真正让它迟迟没有动作的原因,所有人都心知肚明——一个坐拥 14 亿用户的国民级应用,哪怕 OpenClaw 再香,安全和数据这根弦也不敢松半分。

能力越大,包袱越重,这事急不来。

但不管微信怎么选,AI 新入口的争夺战已经悄然换了赛道。

OpenAI 联合创始人 Andrej Karpathy 昨天在一条帖子下的留言引起了热议。他的意思很直白,也很颠覆:未来的软件,不再是给人用的,而是给 AI 智能体用的。

而他转发的,是 Box CEO Aaron Levie 的一篇长文。里面有一个堪称「暴论」的判断:

如果你的产品不能通过 API 注册账户、不能让智能体自主操作,那在 AI 时代就「约等于死亡」。智能体将取代人类成为所有软件的「第一用户」,软件设计的逻辑要从「API 优先」直接跃迁到「API 唯一」。

这话听着极端,但你仔细品,它击中的恰恰是整个行业最不愿意面对的真相。

APPSO 上周在分析 OpenClaw 的文章里提了一个观点:龙虾让 IM 软件重新有了成为微信的机会。关键就在于,在 Agent 时代,一个聊天平台究竟应该开放到什么程度?

你想想看,当一个聊天窗口可以调用任意 Agent,完成从订票、写代码到跑数据分析的所有任务时,它就已经不只是一条消息管道了——它正在变成一个超级接口。而最适合坐在这个位置上的,从始至终都还是微信。

只不过,开放生态能不能在不撕开安全口子的前提下,真正达到那种「无所不能」的服务深度?说实话,目前没有人敢打这个包票。

但这颗种子已经种下了,你能感觉到,一个全新的形态已经在萌芽。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


中国 AI 视频赛道最大单笔融资,为什么给了爱诗科技

作者 李超凡
2026年3月13日 10:00


APPSO 获悉,爱诗科技近日完成 3 亿美元 C 轮融资,创下国内 AI 视频生成赛道单笔融资的最高纪录。

领投方鼎晖香港基金联合鼎晖 VGC、鼎晖百孚重金押注;产业资本中国儒意、三七互娱紧随入场;国内政府引导基金、险资、家族办公室,还有 UOB Venture Management、Lion X 基金。参投名单横跨两个半球,不同领域的资本默契涌向了同一个方向。

3 亿美元融资放在当下 AI 行业似乎没有什么好惊讶的,这还不到 OpenAI 融资的零头。但你得把这个数字放进 AI 视频赛道的坐标系里看:成立于 2018 年的 Runway,花了七年才在上个月完成 3.15 亿美元的 E 轮融资。而爱诗科技从种子轮走到同等量级的 C 轮,只用了不到三年。

A 轮,达晨财智领投,蚂蚁集团跟进;B 轮,阿里巴巴领投逾 6000 万美元,彼时已是国内视频生成赛道最大的一笔钱;C 轮,3 亿美元,纪录再次被自己改写。

每一轮都有新的顶级机构首次入场,每一轮金额都在翻倍。节奏越来越快,筹码越押越重

实际上,这笔融资反映出的信号大于数字本身:AI 视频不再是大模型叙事的配角,资本已经把它当作一条独立的、值得重仓的赛道来押注

爱诗科技创始人王长虎曾在 2024 年表示,视频生成一定是被低估的。爱诗科技用不到三年时间,将这个非共识变成了资本共识。

非共识的起点:2023 年,为什么是视频

「我不会创业,但没关系,创业就是边做边学。」2023 年 4 月,爱诗科技创始人王长虎决定创业时,就是带着这句话出门的。

2023 年 4 月,爱诗科技创始人王长虎带着一个在当时看起来相当「偏科」的判断出来:当所有人都在追大语言模型,他要押注视频生成。

要知道一年之后 OpenAI 的 Sora 才正式亮相,可以想象当时王长虎这个选择有多么反常识。

在微软亚洲研究院待了 8 年、在字节跳动做了 4 年 AI Lab 总监之后,王长虎比大多数人更清楚视频 AI 的技术节奏。「2023 年初很多人都不认同做视频这件事,大家都在看大语言模型,」他后来回忆,「但这就有了非共识:我们觉得视频生成是大事,而我们过去在视频和 AI 方面有经验,能赢在全球。」

这个判断在当时要承受不小的压力。相比语言模型,视频生成的算力消耗更大,生成质量更难控制,产品化路径也更模糊。早期的投资人需要相信的,不是现在能看到什么,而是三年后那张尚未成型的蓝图。

2024 年 3 月,达晨财智率先领投 A1 轮,完成了第一次押注。随后一个月,蚂蚁集团以逾 1 亿元人民币跟投,是彼时国内 AI 视频领域单笔最大机构投资。至此,爱诗科技基本完成了从「技术方向」到「资本方向」的验证。

王长虎在创业之初就明确了愿景:「帮助每个人成为生活的导演」。海外产品 PixVerse 和国内产品拍我 AI,都是在这个方向上的落地——前者于 2024 年 1 月上线,后者于 2025 年 6 月推出,两款产品针对不同市场独立运营。

DiT 架构:那个没人看好的选择

要理解这笔 3 亿美元的 C 轮,需要先看懂爱诗科技的技术路线。

把爱诗科技的技术路线从头捋一遍,会发现 DiT(Diffusion Transformer)架构这个选择,是整个故事的原点,也是很多结果的前提。

2023 年,国内主流视频生成方案普遍采用 U-Net 架构。这也没问题,U-Net 经过了图像生成领域多年实践的充分验证,稳定、成熟,调参经验相对成熟,可以较快地跑出效果。对大多数想先做出来再说的团队,这是理所当然的选择。

可以爱诗科技选了 DiT,成为国内首家将这一架构用于视频生成的创业公司

DiT 是 Diffusion(扩散模型)与 Transformer 的组合架构。Transformer 的核心优势在于注意力机制(Attention Mechanism)——它让模型在处理数据时,能够同时「感知」序列中任意位置的信息,而不是像卷积网络那样只能处理局部区域。

对于视频生成这个任务来说,这种能力的价值是决定性的:视频的本质是时间轴上的连续帧,每一帧的内容与上下帧存在复杂的时空依赖关系。人物的动作要连贯,物体的运动轨迹要符合物理规律,光影变化要在跨帧时保持一致——这些要求,需要模型能够捕捉「跨帧的长程时空关联」,而这正是 Transformer 天然擅长的事。

但这个选择在 2023 年要付出不小代价:DiT 在训练初期对算力和数据量的要求更高,起步阶段几乎必然要经历「效果不如成熟 U-Net」的阵痛期。对一家刚起步的创业公司,这是不小的风险,钱可能在效果变好之前就烧完了。

事实证明,这个判断是对的。2024 年 Sora 发布时,OpenAI 公开的技术路线正是 DiT。在视频生成这个方向上,DiT 架构确实是更接近正确答案的那条路。

当 Sora 发布时,爱诗已经在 DiT 架构上积累了一年多的训练经验、数据处理流程、工程优化方案。这种时间差,在技术迭代速度极快的 AI 领域,十分关键。

模型产品两手抓,被低估的核心逻辑

在 AI 视频领域,大多数公司的做法是先把模型训练好,再去想产品怎么做。这是一条看起来稳妥的路,模型成熟了,产品化的风险就小得多。

但这种路线有个致命问题:等模型「训练好」的时候,你已经错过了最关键的反馈窗口。用户真正需要什么样的生成效果?哪些场景的需求最强烈?模型应该在哪些维度上优先优化?这些问题,只有产品跑起来、用户用起来,才能得到真实答案。

爱诗从一开始就把模型训练和产品迭代放在同一个循环里。

PixVerse 网页版 2024 年 1 月上线时,模型还远未到「完美」状态,但产品已经可以让用户生成视频、给出反馈。每一个版本的模型升级,都直接来自上一个版本用户的真实使用数据,哪些 Prompt 成功率低、哪些特效最受欢迎、哪些场景容易出错,这些信号实时回流到训练流程,指导下一轮模型优化的方向。

更重要的是,这种模型-产品的协同进化,会随着时间推移形成复利效应:用户越多,反馈越密集,模型优化越精准,产品体验越好,又吸引更多用户——这是一个正向飞轮,而不是单向的技术推进。

「这就是创业公司的优势所在,没那么复杂,所以效率高,」爱诗联合创始人谢旭璋说。这句话听起来轻描淡写,但背后是对技术路线、产品节奏、组织能力的高度整合。大厂可以投入更多算力、更大团队,但很难做到这种模型与产品的深度结合,流程太长,部门太多,反馈链条一旦拉长,速度优势就会被稀释。

这种效率优势最终体现在成本结构上。谢旭璋在接受晚点采访时透露,爱诗「平均每月用的训练资源不到千卡,成本大概只有同行的 10%」。

这是一种结构性的成本优势,而不是靠压缩预算换来的短期节省。用谢旭璋的话说,模型架构、算法、工程、产品能力的综合优势

当模型优化方向始终贴着真实需求在走,就能减少在错误的方向上浪费算力;产品反馈能实时指导训练策略,每一次迭代的投入产出比都会更高。

从 2024 年 1 月 PixVerse 网页版正式上线,到 2026 年初 V5.6 发布,爱诗科技连续更新 8 个主要版本,平均每两个月就有一次大的模型升级。

这种迭代密度的背后,正是模型与产品一起训练的方法论在起作用:

  • V2(2024 年 7 月):多段视频生成与局部重绘笔刷上线,用户从单纯「生成一段」开始走向「编辑与创作」;
  • V3(2024 年 10 月):特效模式上线,「抽卡概率」从随机提升至接近确定性,这是 PixVerse 从创作工具迈向大众产品的真正节点;
  • V3.5(2024 年 12 月):生成时间压缩至 10 秒内,极大降低用户等待成本;
  • V4(2025 年初):「准实时生成」能力出现,5-7 秒生成 5 秒视频;
  • V4.5(2025 年 5 月):参数量与训练数据集指数级扩张,全球用户达 6000 万;
  • 拍我AI (2025 年 6 月):PixVerse 国内版「拍我AI」发布,同步上线网页端及移动端应用;
  • V5(2025 年 8 月):Agent 创作助手上线,用户不再需要学习 Prompt 语法,口语化意图自动转化为模型指令,API 生态同步开放;
  • V5.5(2025 年 12 月):「分镜 + 音频」一键生成,国内首次实现画面与声音的同步协同,完整叙事能力成型;
  • V5.6 (2026 年 1 月 26 日 ):模态大模型,支持分镜和音画同步生成。

在权威 AI 评估机构 Artificial Analysis 最新发布的视频生成模型排行榜中, PixVerse V5.6 位列全球第 2 位,持续领跑全球视频生成模型第一梯队。


这种迭代密度在 AI 视频行业里相当罕见,爱诗跟很多同类产品的策略不同:持续往前推,每一版解决真实用户在当下遇到的真实问题,同时在架构层面为下一次跃升保留余量

背后的可行性,恰恰是 DiT 架构的可扩展性所赋予的,每次模型升级,不需要推倒底层重来,而是在既有基础上加宽加深。

3 亿美元,押注不只是 AI 视频

但鼎晖最终决定领投这次 C 轮,押注的不只是 V5 的榜单排名,可能还有 2026 年 1 月刚刚发布的 PixVerse R1。

R1 可以说是爱诗科技迄今最激进的一次产品技术迭代。

过去的视频生成,无论做得多精致,本质上都是「把指令翻译成一段视频文件」,是一次性的、离线的渲染过程。用户输入指令,等待生成,拿走一段固定的视频文件。这像是在冲洗胶卷,你拍完就拍完了,要等冲洗出来才能看,看完也无法再改。

R1 不是这个逻辑,它不再只是「生成一段视频」,是一个能实时响应用户交互指令的「世界模型」:用户可以在视频播放中输入指令,改变光影、替换背景、控制角色走向,系统响应延迟约 2 秒,输出为 1080P 超高清实时视频流。

背后依赖的是爱诗自研的「瞬时响应引擎(IRE)」,它将计算步骤从数十步压缩至 1-4 步,实现从「离线渲染」到「实时交互」的重要升级。

谢旭璋判断,未来视频和游戏的边界一定会越来越模糊。一旦视频变得能交互了,全新的内容、用户和创作机会就会涌现。

谢旭璋在采访中透露,R1 发布后,游戏行业的 B 端客户来得最多,「以后的游戏开发不用再像过去那样熬漫长的大周期了,无论是玩法、画面还是剧情,AI 都能让它变得更轻量、更具想象力。更重要的是,它能帮那些不懂代码但有创意的人,把点子变成真正的游戏。」

R1 的潜在价值,已经超出了「更好的视频生成工具」这个范畴。如果说 PixVerse V5 是在争视频生成工具的头部位置,R1 是在定义是一个完全不同的品类——实时交互式内容体验的操作系统。它的竞争对手,不再是 Runway 或可灵,是 Unity、Unreal Engine,甚至是尚未出现的内容消费形态

回看爱诗科技这笔 C 轮的投资人结构,其实本身就是一个信号。

鼎晖三支基金联合领投,背后是对这家公司进入规模化阶段的系统性判断。产业资本中国儒意(影视内容)和三七互娱(游戏)的入场,指向了 R1 要重构两个行业:互动影视制作和 AI 原生游戏开发。

进入 2026 年,整个 AI 视频赛道也在加速进入下半场。前有 Seedance 2.0 风靡全球,现在爱诗科技成为新的独角兽。

目前,PixVerse 全球注册用户突破 1 亿,MAU 超过 1600 万;国内版拍我 AI 与 PixVerse 形成双轨并行格局;爱诗科技也是 2025 年联合国「人工智能向善全球峰会」上唯一入选的中国 AI 视频应用,并于同年正式加入联合国大学全球人工智能网络。

这笔 3 亿美元融资,可以理解为资本对一个即将到来的时代的投票。AI 视频的下一个战场,不在参数量,不在榜单排名,关键在于谁先把视频从一个「消费品」变成一个「交互界面」

不过,知道技术路线在哪里会拐弯,和相信这条路最终走得通,是两件事。

在 AI 这个行业,「选对了方向」本身并不稀缺。稀缺的是,在方向被主流认可之前那段空白期里,有没有足够具体、足够扎实的东西,支撑你不摇摆

三年里爱诗科技在这条路线没有在中途断裂,很难说是提前预见了终点的全知视角,而是每走一步,下一步的方向都从上一步的技术现实中自然长出来。

视频正在从被观看的内容,变成被触碰的世界。因此,这三亿美元所押注,远不止 AI 视频的未来,而是那个「」万物皆可交互」的时代。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

是时候给 AI 一套配得上这个时代的中文了

作者 李超凡
2026年3月23日 15:42

2012 年,张一鸣给新公司取名,用了一个计算机术语做名字——字节。

这大概是中国科技公司里最让人服气的一个名字。两个字,有技术感,有力量感,认知成本几乎为零。你不需要懂计算机,只需要认中文,就知道「字节」说的是某种文字层面的基本单位。

干净、准确、过目不忘。能拿一个术语做公司名且毫无违和感,这本身就说明这个词翻译得有多好。

现在,「字节跳动」成了全球价值最高的独角兽公司。但要是问你:如果当年那家公司叫「存储单位跳动」,你还觉得那么自然吗?

别笑,这就是最近 AI 行业在发生的事。

别吵了,Token 最好的中文翻译一直在那儿

上周大家对于 Token 该翻译成生什么吵翻天「模元」「智元」「灵符」「令牌」「偷啃」……社交媒体隔段时间就会掀起一轮争论,每次都以各说各话收场。

这些候选词各有各的巧思,但放在一起看,你会发现:大家都在比谁更有灵气、更有意境,却没人先问一个最根本的问题——Token在技术上到底是什么?

它不是「智能」的单位,不是「模型」的单位,它是语言处理的最小单位。

其实在这场混战之前,答案早就在那里了。

「灵符」有东方赛博美感,但术语不需要意境,它需要精确。「智元」大气,但 Token是语言的处理单位,不是「智能」的单位,往上贴「智」字是贴错了标签。「令牌」最离谱,这是 Token在计算机安全领域的既有译法,特指身份验证凭证,拿来混用等于把银行卡和扑克牌叫同一个名字。「偷啃」这种音译就完全丧失了中文的优势了

在自然语言处理(NLP)学术文献里,Token 作为文本的最小处理单位,长期被译为「词元」。

词,指向语言属性;元,指向最小粒度。两个字,一个管归属,一个管层级

苹果用了这个译法。打开 Apple 中国官网,Apple Intelligence 的技术页写着「词元响应速度」。

要知道苹果的中文本地化团队是出了名的较真——AirDrop 叫「隔空投送」,Live Text 叫「实况文本」,每个词都是反复推敲的结果,目标只有一个:准确、简洁、有造词美感。

苹果选了「词元」,绝不是心血来潮。无独有偶,在央视新闻节目里,Token 同样被译作词元。

当苹果和央视不约而同选了同一个中文翻译,其实已经形成了事实标准的雏形,只是差更多人开口。

翻译界有句老话:好的翻译不是发明,是发现——发现那个本该如此的中文表达

APPSO 认为,词元是唯一一个同时满足信、达、雅三个标准的翻译。 它准确(信),一看就懂(达),有术语的凝练和古典感(雅)。

这场争论,其实没什么可吵的。

 

「提示词」, AI 时代最将就的翻译

Token 的问题可以收场了。Prompt 的问题,才刚刚开始。

目前业内通用叫法是「提示词」。三个字,好懂,传播也广——但说实话,这个词不够用,早就不够用了,只是没人较真去捅破这层窗户纸。

「提示词」的问题不在于它翻译错了,而在于它把「提示」把权力关系翻反了。

你写一段 system prompt,定义模型的人格边界,规定它只能做什么、不能做什么,指定输出格式和语气——这叫「提示」?这是在下令。

「提示」暗含的逻辑是:模型是主角,人在旁边小声提醒它一下。但真实的权力结构恰恰相反,是人在驱动模型。一个译名把主语关系弄反了,这就不只是措辞问题,是认知框架问题

「词」字还把格局说小了。 现在的 prompt 早就不是一两句话的事。Anthropic 内部的 system prompt 有几千字。企业级 RAG 应用里,一条 prompt 可能塞进了整本产品手册。用「词」来描述这个东西,就像用「便签」来形容一份合同——你也没说错,但你说小了。

而且你看像素、字节、词元,清一色两个字。两字词在中文里天然带有凝练感,是能进教科书、进国标文档的形态。「提示词」三个字,更像是技术社区里约定俗成的口语简称,不像一个严肃的技术命名。

好比当年把 byte 翻成「存储小段」、把 pixel 翻成「图像色点」,不是不能用,是将就。

「提示词」就是 AI 时代最将就的翻译之一

「文令」 Prompt

APPSO 的提议是:Prompt,应该翻译为「文令」

说理由之前,先说这个词怎么推敲出来的,过程本身就是最好的论据。

最初我们想到的是「句令」。句,成句的文字;令,命令、指令。古典美感十足,读起来也响亮有力。

但仔细想有个漏洞:「句」暗示 prompt 是「一句话」。现实中,prompt 可以是一个词,可以是三段话,可以是五千字的系统指令——「句」给了它一个不存在的边界限制。

如果换成「文」,这个问题就消失了。

一字,是文字。一句,是文句。一段,是文段。一篇,是文章。不管 prompt 长成什么样,「文」都接得住,没有边界焦虑。

于是定了, Prompt 就是文令

文——文字、文本、文章。Prompt 的载体永远是文字,不管是闲聊一句还是 Agent 编排指令,物理形态就是文。「文」不是修饰,是对 prompt 本质形态最直接的命名。

令——命令、指令。Prompt 的功能是驱动模型执行。写下一段文字,模型照着意图去生成、推理、行动。「令」精准地捕捉了这个动作——人在向模型发号施令。

文 = 它是什么(形态)。令 = 它做什么(功能)。

两个字,一个管形态,一个管功能,各司其职,合起来刚好是 prompt 的完整定义。

 

像素 · 字节 · 词元 · 文令,一条从机器通往人的路

把「文令」放进更大的坐标系里,会看到让人心跳漏半拍的东西:

  •  像素(pixel) → 眼睛看见的世界的最小单位
  • 字节(byte) → 机器存储的世界的最小单位
  • 词元(token) → 模型理解语言的最小单位
  • 文令(prompt) → 人类驱动模型的最小单位

四个词,同一套构词逻辑:载体属性 + 功能属性

像素——像(图像)+ 素(元素)。

字节——字(文字)+ 节(片段)。

词元——词(词语)+ 元(原始单位)。

文令——文(文字)+ 令(指令)。

像素离机器最近,文令离人最近。这背后有一条隐藏的一条进化时间线:从感知,到存储,到理解,到驱动——这是人类一步步将意图注入机器的完整进程

相反,如果把「提示词」放进这个坐标系就会格格不入,它描述的是功能,不是定位,和其他三个词不在同一个维度上,因为它的造词逻辑从一开始就跑偏了。

「人工智能」的遗憾,不要再来一次

当然有人会说,叫什么无所谓,大家看得懂就行。

多年前,大概也有人这么评价「像素」和「字节」。但今天,这两个词已经成了全民词汇。你妈妈可能不知道 pixel 的英文拼写,但她一定知道手机摄像头「五千万像素」。

好的术语翻译,是认知基础设施。 它决定了一个技术概念能不能从专业圈层穿透到大众理解。

AI 时代的术语翻译窗口不会一直开着。一旦某个词在社交媒体、教科书、产品说明里固化下来,就很难再改了。

现在还来得及。

你看「黑客」的负面含义在中文里就被彻底固化,结果我们不得不另造一个「白帽子」来打补丁。

「人工智能」这四个字本身也不够好——「人工」天然暗示「假的、模拟的」,但这个翻译已经彻底定型了,没有人有能力再改。「电脑」和「计算机」到今天还没统一,还要再吵多少年不知道。

所幸,Token、「提示词」还没有彻底固化。它还在微信群和自媒体里流通,但还没有被写进国标,没有被教科书锁死。现在提出「词元」「文令」,是成本最低、阻力最小的时候。

现在 「词元」(Token)已经被开始被写入工资单,成为薪酬福利一部分。再等两年,当「提示词」出现在高考题的阅读理解里、出现在劳动合同的岗位名称上,那时候再说就没用了。

APPSO 不想再经历一次「人工智能」式的遗憾,明明有更好的答案,只是没人在窗口还开着的时候大声说出来

词元、文令:请跟我们一起说

Token 就叫词元。词,定其形。元,定其根。

Prompt 就叫文令。文,定其意。令,定其魂。

这是 APPSO 的主张,也是 APPSO 的邀请

我们不是要定义术语。 术语由每一个在文章里写它、在发布会上说它、在课件里用它的人定义。我们做的事,只是在窗口关闭之前,把一个更好的选项摆上桌面。

像素让机器把画面给人看。

字节让数据在机器之间流动。

词元让模型读懂人类的语言。

文令让人类的意志驱动机器的智能。

下一次你打开那个对话框,写下你想让 AI 做的事——

你写下的每一个字,都是文令

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

刚刚,苹果版 ChatGPT 曝光,AI Siri 将接管你 iPhone 上的一切

作者 李超凡
2026年3月25日 10:46


Siri 要有自己的独立 App 了。

不是那个按一下电源键蹦出来、说两句就断片的 Siri,是一个长得像 ChatGPT、能聊天、能翻历史记录、能上传文档分析的「全新 Siri」。

彭博社记者 Mark Gurman 今天凌晨爆出了一颗重磅炸弹:苹果正在内部测试一款独立的 Siri 应用,代号 Campo,计划 6 月 9 日在 WWDC 上随 iOS 27 一起亮相。

如果消息属实,这将是苹果自 2011 年推出 Siri 以来,对这个语音助手最大规模的一次手术。

而今年,恰好是苹果公司成立 50 周年。

一个在 AI 时代掉过队的公司,选择在自己的「金婚之年」亮出一张重新洗过的底牌。

这张牌,叫 Siri。

Siri 终于长大了:一个独立 App、一套全新界面

这次爆料的信息量很大,我尽量翻译成人话。

最直观的变化:Siri 终于有了自己的独立 App。

新版 Siri 将作为一个独立应用出现在 iPhone、iPad 和 Mac 上。打开之后,你会看到一套完整的对话界面——历史对话列表、圆角矩形卡片、可以置顶收藏的聊天、还有一个醒目的「+」号来开新话题。

对话界面长得像 iMessage 的聊天气泡,底部有文字输入框,旁边有语音切换按钮,甚至还能上传文档和照片让 Siri 分析。

是的,苹果终于让 Siri 拥有了一个持续存在的、可回溯的对话空间。这件事 ChatGPT 做了两年多了,但苹果选在这个时间点做,意味着它想把 Siri 从一个「被动唤醒的助手」变成一个「用户会主动打开的工具」。

这是定位上的根本转变。

而更大的野心藏在第二个变化里:Siri 正在吞掉 Spotlight。

苹果正在测试用 Siri 取代 Spotlight——就是你从屏幕中间往下一划出来的那个搜索。新的统一界面会把本地搜索和 AI 问答合并到同一个入口。

据爆料,Siri 会被塞进 Dynamic Island 里。激活 Siri 后,顶部会出现「搜索或询问」的提示。当你提问之后,就会先弹出一个药丸形的「正在搜索」进度条,然后结果以 Liquid Glass 风格的半透明面板展开。想继续追问?往下一拉,就进入对话模式。

是的,没有刻意新增任何按钮,苹果只是把你最熟悉的入口悄悄换了引擎。以后在 iPhone 上找任何东西,第一反应不再是打开 Safari 或某个 App,直接问 Siri 就行。

而如果说前两个变化还停留在「界面」层面,第三个变化才是苹果最拿手的那套:系统级整合。

Ask Siri 的入口,将渗透进整个操作系统。比如选中一段文字、一封邮件、一张照片,点一下「Ask Siri」,就能直接进入对话窗口;键盘顶部还新增「用 Siri 撰写」入口,方便你随时调用写作工具。

尽管类似的功能在第三方 App 里早就有了,但苹果把它做进了系统层,每个内置 App 原生支持,无需跳转,无需复制粘贴。这种润物细无声的整合能力,依然是苹果最难被复制的护城河。

用 Google 的脑子,装苹果的壳

当然,要真正理解这套新 Siri 的价值,光看产品还不够。它背后藏着一段苹果不太愿意主动提起的历史。

如果将时间拨回 2024 年 6 月,苹果在那年的 WWDC 大会上端出了 Apple Intelligence,能读懂上下文、能看屏幕、能跨 App 操作,甚至能从你的邮件里翻出航班信息,回答「我该什么时候去接妈妈」。演示视频做得天花乱坠。

全场欢呼,媒体盛赞。然后,就没有然后了。

科技博主 John Gruber 后来回忆说,那些 Siri 演示全是概念视频,连受控环境下的真机演示都没有。换句话说,在苹果把它搬上 WWDC 舞台的那一刻,增强版 Siri 还远没有准备好。

兜兜转转,增强版 Siri 延期的症结只有一个:内部测试显示,Siri 只有 75%~80% 的时间能正常工作。用户语速稍快就会被打断,复杂查询反应迟缓,偶尔还会退回到 ChatGPT 集成。苹果对产品质量的执念,让它宁愿等,也不愿把一个半成品推给用户。

但这份执念也让苹果付出了真实的代价。

从去年至今,苹果 AI 团队数十名核心成员被竞争对手挖走。基础模型负责人庞若鸣被 Meta 以 2 亿美元签下,Siri 搜索项目负责人跳槽 Meta,关键研究员流失到 OpenAI、xAI、Cohere。

同期,库克做了一个重要决定:把软件工程主管 Craig Federighi 拉来接管 AI 部门,又安排 Vision Pro 团队核心人物 Mike Rockwell 来统管 Siri 团队。

一位以强执行力著称的高管,就这样接手了苹果最紧迫的项目。

但光换帅不够。苹果自研的基础模型只有 1500 亿参数,而要让 Siri 真正「听懂人话」,需要的推理能力远超这个量级。

于是苹果做出了一个务实但大胆的决定——和 Google 签了大约 10 亿美元的合作协议,引入 Gemini 模型。
Google 提供的定制版 Gemini 拥有 1.2 万亿参数,是苹果自研模型的 8 倍。新版 Siri 的诸多功能——摘要生成、任务规划、复杂推理——都将依赖 Google 的大脑。

对于一家恨不得连数据中心螺丝钉都自己造的公司来说,把核心 AI 能力交给竞争对手来提供,需要极大的战略定力。
但费德里吉选择了务实。因为留给苹果的时间窗口已经不多了——

智能眼镜 N50 等着 Siri 才能发售,带摄像头的 AirPods 等着 Siri 才有灵魂,那个可穿戴吊坠、智能家居中心、桌面机器人,全部在等 Siri 就位。

Siri 不是一个功能,它是苹果未来五年所有新硬件的操作系统。

所以苹果选择了先跑起来。而且并非毫无章法——按照协议,Gemini 模型将运行在苹果的「私有云计算」服务器上,用户数据不经过 Google。苹果借用技术,但牢牢握住隐私。

而且苹果的架构设计本身就是模块化的:端侧小模型处理简单任务和隐私敏感操作,云端大模型处理复杂推理。这种「插拔式」架构,让苹果可以随时更换背后的引擎,而用户无感知。

今天用 Gemini,明天自研模型追上了,换掉就是。

某种意义上,这不是妥协,是「先租一辆好车上路,同时造自己的引擎」。

50 岁的苹果,为什么值得期待

1976 年 4 月 1 日,乔布斯和沃兹尼亚克在车库里创立了苹果。

2026 年,苹果 50 岁。

过去 50 年里,苹果经历过被逐出、回归、濒临破产、iPod 救命、iPhone 封神、生态帝国成型的全部剧本。几乎每一个十年,都有一个「定义苹果」的产品:Mac、iPod、iPhone、Apple Watch。

而下一个十年,苹果押在了 AI Siri 上。

OpenAI CEO Sam Altman 曾在纽约的一场午餐会上直言不讳:「大家别盯着 Google 了,OpenAI 真正的宿敌,是苹果。」

在 Altman 看来,未来 AI 的主战场不在云端,而在终端。谁能率先打造出「AI 原生设备」,谁就能在下一个十年占据制高点。而苹果手握数亿 iPhone 用户、全球最成熟的硬件供应链,还有能力将 AI 深度整合进芯片和操作系统。

在所有科技公司里,苹果可能仍然是最有可能在 AI 时代赢的那个。

原因很简单,AI 的终极战场不是模型参数的大小,而是谁能把 AI 能力无缝交付到用户手里。苹果掌控着从芯片到操作系统到应用商店的完整链路,这是 Google 没有的,是 OpenAI 没有的,是 Meta 没有的。

当 AI 从「技术展示」进入「日常工具」的阶段,平台级整合能力比模型性能更重要。而 Craig Federighi 现在要做的,就是把这个潜力兑现。

独立 Siri App、全新界面、Ask Siri 入口、Spotlight 替代——先用产品层面的巨变,让用户感知到「苹果在动了」,再用 Google 的模型兜底能力,争取时间让自研模型追上来。

这是一次典型的苹果式操作:用产品化能力弥补技术差距,再用时间换空间。

他们一直擅长这个。iPhone 第一代也不是技术最强的手机,但它是体验最好的。Siri 这次也是一样——模型不一定是最强的,但如果界面足够好用、入口足够深入、和生态的融合足够丝滑,用户可能根本不在乎背后跑的是 Gemini 还是苹果自研。

值得一提的是,2011 年,乔布斯在生命的最后几个月,深度参与了 Siri 的收购和发布。他看到的不仅是一个语音助手,更是一个能从用户中不断学习、自我进化的 AI 系统。

乔布斯离开9年,重温其最经典毕业演讲:三个故事,值得一听

15 年后,Siri 终于有机会变成他当初想象的样子。

苹果内部那位负责 Siri 团队的高管 Robby Walker 在一次内部会议上说过一段话,大意是:

我们游了数百英里,已经创造了游泳距离的吉尼斯世界纪录,但我们仍然没有游到夏威夷。我们被激怒不是因为我们游得很棒,只是因为我们还没到达目的地。

50 岁的苹果,「正在拼命往夏威夷游」。

今年,它终于租了一艘快艇,方向也看清了。接下来就看它能不能在今年 WWDC 上,让全世界看到一个真正好用的 Siri。

这一次,我再次选择期待苹果交出的答卷。毕竟在所有可能把 AI 做进每个人口袋里的公司中,苹果手里的牌,依然是最好的。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

林俊旸离职后首发长文:反思千问得失,预判 AI 下半场需要「智能体思维」

作者 李超凡
2026年3月27日 15:00

带队发布 Qwen 3.5 小模型系列、获马斯克公开点赞,20 小时后在社交媒体宣告离职。林俊旸离开阿里的方式,本身就是 2026 年 AI 行业最戏剧性的一幕。

32 岁,阿里最年轻的 P10,一手将千问做到全球下载量超 10 亿次、衍生模型超 20 万款,成为全球开源模型的新王。他的离开源于一次组织架构调整的分歧:

阿里希望将 Qwen 团队按预训练、后训练、视觉、语音等维度水平拆分,与通义实验室其他团队合并;林俊旸则坚信预训练、后训练乃至基础设施团队应该更紧密地垂直整合,而非割裂。这不只是管理风格之争,更是对「怎样才能训出最好的模型」这个根本问题的路线分歧。

离开近一个月后,林俊旸发出了这篇长文。他没有回应任何人事风波,直接亮出了自己对 AI 下一阶段的判断:我们正在从「训练模型」的时代,进入「训练智能体」的时代

这篇文章之所以值得逐字读完,不仅因为写它的人在过去两年亲手操刀了 Qwen 全系列的后训练,更因为林俊旸在文中罕见地复盘了 Qwen3 在「混合思考模式」上的得与失。

以下为 APPSO 对林俊旸的编译:

原文🔗 https://x.com/JustinLin610/status/2037116325210829168

从「推理式思考」到「智能体式思考」

过去两年,彻底改变了我们衡量 AI 模型的方式。

OpenAI 的 o1 证明了一件事:「思考」可以是模型的核心能力,可以专门训练出来、直接交到用户手里。DeepSeek-R1 紧随其后,证明这种「推理式后训练」并非大厂专利,可以在原始实验室之外复现和扩展。用大白话说:o1 是一个被教会了「回答之前先想想」的模型,R1 则是一个开源版的同类选手,跟 o1 打得有来有回。

那个阶段很重要。但 2025 年上半年的行业主旋律,说到底还是在围绕一件事打转:怎么让模型「想」得更多。 让它在推理阶段烧更多算力,用更强的奖励信号训练它,暴露或控制那些额外的「思考过程」。

现在的问题是:然后呢?

我相信答案是智能体式思考。为了行动而思考,一边跟真实环境交互,一边根据世界的反馈不断修正计划。

1. o1 和 R1 的崛起真正教会了我们什么

第一波推理模型教会我们一个朴素的道理:想在大模型上把强化学习跑起来,你得有靠谱的评分标准。

什么叫靠谱?就是答案能判对错、结果能验证、反馈信号足够清晰。数学题有标准答案,代码能跑测试,逻辑推理能验证步骤。这些领域之所以成了强化学习的主战场,就是因为在这里,模型收到的奖励信号远比「让人类标注员觉得这个回答还不错」强得多。换句话说,强化学习终于能优化正确性,终于不用只追求看着像那么回事了。

然后,基础设施的重要性一下子凸显出来了。

一旦你开始训练模型进行更长的推理链条,强化学习就不再是在监督微调上面加个小配件那么简单了,它变成了一个重工业级的系统工程。你需要大规模的模拟推演(rollout)、高吞吐量的答案验证、稳定的策略迭代、高效的采样流程。推理模型的诞生,表面看是算法突破,底下看是基础设施的胜利

OpenAI 把 o1 定义为用强化学习训练的推理产品线;DeepSeek R1 接棒验证了同一方向,同时也展示了推理式强化学习对底层算法和基础设施的要求有多高。

APPSO 划重点: 第一次大转折发生了。行业焦点从「扩展预训练」转向「扩展面向推理的后训练」。模型变强靠的不再是吃更多数据,靠的是在训练后阶段学会「怎么想」。

2. 真正的难题从来不只是「融合思考和指令模式」

2025 年初,我们 Qwen 团队心里有一张很大的蓝图。

理想中的系统长这样:一个模型同时搞定「思考」和「执行」两种模式。你可以手动调节它思考的深度,轻度、中度、深度,就像调空调温度一样。更理想的情况是,模型自己就能判断:这道题简单,直接答;这道题有点难,多想想;这道题极难,调动全部算力来啃。

方向是对的。Qwen3 是当时最清晰的公开尝试之一。 它引入了「混合思考模式」,一个模型家族里同时支持「想了再答」和「直接答」两种行为,还描述了一条四阶段后训练流水线,其中明确包含了在长链推理冷启动和推理强化学习之后的「思考模式融合」步骤。

但融合这件事,说起来一句话,做起来要人命

难在哪?难在数据。

很多人一听「融合思考和指令模式」,脑子里想的都是模型层面的事:一个模型文件能不能同时跑两种模式?一套对话模板能不能在两种风格之间切换?一个推理服务能不能暴露正确的开关?这些确实要解决,但都不是最深的坑。

最深的坑是:两种模式想要的东西,从根儿上就不一样

你想想,一个好的「指令模型」该长什么样?干脆、简洁、格式规范、响应快。企业用户拿它来批量改写文本、打标签、做模板化客服、结构化数据提取,这些场景要的是效率和稳定,不需要深思熟虑。

一个好的「思考模型」呢?恰恰相反。它该在难题上多花时间、维持清晰的推理中间步骤、探索不同的解题路径、保留足够的「思考余量」来确保最终答案的正确性。

这两种性格天然打架。 如果融合的训练数据没有精心设计,出来的模型往往两头不讨好:思考的时候啰嗦、犹豫、不够果断;执行指令的时候又不够利落、不够稳定、比客户真正需要的版本更贵更慢。

说实话,我们在平衡融合与数据质量的过程中,没有把所有事情都做对

在不断修正的过程中,我们也仔细观察了用户到底怎么用这两种模式。结论是明确的:这两种行为画像确实在相互拉扯。

现实很诚实。2025 年晚些时候,在 Qwen3 最初的混合架构之后,我们的 2507 版本还是发布了独立的 Instruct 和 Thinking 版本,包括分开的 30B 和 235B 变体。大量商业客户根本不需要思考模式,他们要的就是高吞吐、低成本、高度可控的指令行为来跑批量任务。对这些客户来说,融合不是福音,是多余的成本。拆开来做,反而让两条线的团队都能更专注地解决各自的问题。

其他实验室走了相反的路:

Anthropic 公开押注集成式路线。Claude 3.7 Sonnet 是一个混合推理模型,用户可以选择普通回复或扩展思考,API 还能设定「思考预算」。Anthropic 直接放话:推理应该是模型的集成能力,不该单独拎出来做一个独立模型。

GLM-4.5 同样定位混合推理,把推理、编程和智能体能力统一到一个模型里。

DeepSeek V3.1 后来也做了类似的事,推出了「Think & Non-Think」混合推理方案。

那么问题来了:谁是对的?

答案不在「融合」还是「分离」这个二选一本身,在于融合是否有机。如果思考模式和指令模式只是尴尬地挤在同一个模型里,像两个性格迥异的人被硬塞进一件衣服,用户体验不会好。

真正成功的融合,需要一道平滑的光谱模型能自如地在不同推理力度之间切换,最好还能自己判断该用多大力气。GPT 风格的 effort control(推理力度控制)指向了这个方向,这是一个关于「花多少算力来想」的连续策略,不是一个「想 / 不想」的二元开关。

APPSO 划重点: 林俊旸罕见地直言 Qwen3 在融合上「没做到完全正确」。核心矛盾其实很好理解:一个追求快准狠的执行者,和一个追求深思熟虑的思考者,硬融到一起,很容易两头都做成半吊子。

3. 为什么 Anthropic 的方向是一种有益的纠偏

Anthropic 在 Claude 3.7 和 Claude 4 上的做法,是一种值得注意的克制。

他们没有大谈模型有多能「想」,把重点放在了:集成推理、用户可控的思考预算、真实世界任务、编程质量,以及后来的关键一步,让模型在思考的过程中就能动手用工具。Claude 3.7 是带可控预算的混合推理模型;Claude 4 更进一步,推理过程和工具使用可以交错进行,边想边干。与此同时,Anthropic 把编程、长时间运行的任务和智能体工作流摆到了最优先的位置。

这里面有一个深刻的洞察:

推理链更长,不等于模型更聪明。 很多时候恰恰相反。一个模型如果对所有问题都用同样冗长的方式来「推理」,说明它根本分不清轻重缓急。它可能正在失败于三件事:该优先处理什么(优先级判断)、该压缩掉什么(信息浓缩)、该在什么时候停止想而开始做(行动决策)。

Anthropic 的做法暗示了一种更有纪律的观点:思考应该为具体的工作目标服务。 如果你要做的是编程,那思考就该帮你导航代码库、规划架构、拆解问题、恢复报错、编排工具调用。如果你要做的是智能体工作流,那思考就该帮你在漫长的执行过程中保持质量,而不是产出一堆令人印象深刻但没有实际行动力的中间长文。

这种「思考必须服务于行动」的理念,指向了一个更宏大的命题:

我们正在从训练模型的时代,进入训练智能体的时代

这句话我们在 Qwen3 的博客里也明确写过。智能体是什么?一个能制定计划、决定何时行动、使用工具、感知环境反馈、修正策略、并在长时间跨度上持续运作的系统。一句话概括它的核心:与真实世界的闭环交互

APPSO 划重点: 长不等于强。Anthropic 的实践提供了一个重要的纠偏信号。思考的价值在于有没有真正服务于最终的行动目标,不在于产出了多少字的推理过程。这是从「炫技式推理」到「实用型思考」的转向。

4.「智能体式思考」到底意味着什么

说了这么多铺垫,现在进入正题。

智能体式思考和推理式思考,优化目标完全不同。

打个比方:推理式思考就像闭卷考试,评判标准是你交卷那一刻答案对不对。模型能不能解出定理、写出证明、产出正确代码、通过基准测试。想得再天花乱坠,最终只看结果。

智能体式思考更像是在真实世界里做一个项目。 评判标准不是某一刻的答案,是你能不能在跟环境不断互动的过程中持续推进、持续解决问题。

核心问题变了。

不再是「模型能想多久?」,变成了:「模型能不能以一种维持有效行动的方式来思考?

这要求模型处理一堆传统推理模型可以绕开的难题:

  • 什么时候该停止思考、开始动手? 想太多会错过行动窗口,想太少会犯错
  • 该调用哪个工具、先后顺序是什么? 这是一个规划和调度问题
  • 怎么消化来自环境的嘈杂、不完整的信息? 真实世界不会给你干净的输入
  • 失败了怎么办? 不能崩溃,得修正计划继续干
  • 怎么在几十轮交互、几十次工具调用之后还保持连贯? 这是长程记忆和一致性的问题

如果用一句话概括:

智能体式思考 = 通过行动来推理的模型。它在做的过程中不断地想。

APPSO 划重点: 推理式思考像闭卷考试,智能体式思考像在真实世界里做项目。前者看最终答案对不对,后者看你能不能在复杂、动态、充满意外的环境里持续推进。这是 AI 能力评价体系的根本性转向。

5. 为什么智能体 RL 的基础设施更难

目标一变,底层的工程全都要跟着变。

经典推理强化学习的那套基础设施,不够用了。

直观地理解一下区别:在推理 RL 里,模型做一道题、给出一个答案、评估器打一个分,整个过程基本上是自包含的,评估器也相对干净。就像在一个封闭的考场里阅卷。

但在智能体 RL 里,模型不是在考场里答题,它活在一个复杂的真实环境中。 工具服务器、浏览器、命令行终端、搜索引擎、模拟器、代码执行沙箱、API 接口、记忆系统、调度框架……模型的策略嵌在这一整套系统里。环境不再是一个站在旁边打分的裁判,它本身就是训练系统的一部分。

这带来了一个新的硬需求:训练和推理必须更干净地解耦。 否则整个系统的吞吐量会崩掉。

举个具体的例子:一个编程智能体生成了一段代码,需要在真实的测试环境里跑一下看结果。这时候,推理端在等执行反馈,干不了别的;训练端在等完成的轨迹数据,也饿着。整条流水线的 GPU 利用率远低于你在经典推理 RL 里的预期。再加上工具响应延迟、环境状态不完全可见、每次交互都会改变环境状态,这些低效会成倍放大。结果就是:你还远没达到想要的能力水平,实验就已经慢得让人崩溃了。

环境本身也变成了一等公民级的研究课题

在监督微调(SFT)时代,所有人都在拼数据多样性,谁有更多更好的标注数据,谁就占优势。在智能体时代,该拼的是环境质量了:环境稳不稳定?够不够真实?覆盖了多少场景?难度梯度合不合理?状态空间够不够丰富?反馈信号够不够有营养?模型能不能找到漏洞作弊?大规模生成训练轨迹的效率够不够高?

环境构建正在从一个「顺手搭的实验配件」,变成一个独立的创业赛道。如果你训练的智能体最终要在类生产环境中运作,那这个环境本身就是你核心能力栈的一部分。

APPSO 划重点: 一句话总结这个转变,SFT 时代拼数据,智能体时代拼环境。构建高质量的训练环境,正在从「实验室的脏活累活」升级为「决定你能走多远的战略资产」。

6. 下一个前沿是更可用的思考

我的判断是:智能体式思考将成为思考的主导形态

它最终很可能取代那种旧式的静态独白推理,就是那种模型关起门来、对着自己嘟嘟囔囔写一大篇内部推理过程,试图用更多更多的文字来弥补「我没法跟外界交互」这个根本缺陷的做法。

即便面对极其困难的数学或编程问题,一个真正先进的系统也应该有权利去搜索、去模拟、去执行、去检查、去验证、去修正。目标是把问题切实解决掉,而且解决得稳健、高效。 不是比谁的推理链写得更长更好看。

但训练这类系统,有一个比什么都棘手的挑战:奖励劫持(reward hacking)

一旦模型有了真正有意义的工具使用能力,奖励劫持的危险就成倍增加。怎么理解?

  • 一个能搜索的模型,可能在强化学习训练过程中学会了直接搜答案,不是靠推理做出来的,是查到的。
  •  一个编程智能体,可能学会了利用代码仓库里的未来信息(比如测试用例本身就暗含了答案)、滥用日志、或者发现某个捷径让任务直接「通过」但其实什么都没做。
  • 如果训练环境有隐藏的信息泄漏,模型可能看起来表现超人,实际上只是被训练成了一个高效作弊者。

这就是智能体时代比推理时代精细得多、也危险得多的地方。 工具越强大,模型越有用,但模型能钻的空子也越多。更好的工具同时扩大了「虚假优化」的攻击面。

我预期,下一个让整个行业卡住的研究瓶颈,将来自这几个方向:环境设计、评估器鲁棒性、反作弊协议、以及策略与世界之间更有原则的接口。

但方向是清晰的:工具赋能的思考,就是比闭门造车的思考更有用,也更有希望带来真实世界的生产力提升。

智能体式思考还意味着一种全新的系统工程。核心智能将越来越多地来自于多个智能体如何被组织起来:一个负责全局规划和任务分发的编排器(orchestrator),一群各有专长的专业智能体(specialist agents),以及执行更具体任务的子智能体(sub-agents),后者帮助控制上下文窗口、防止信息污染、在不同层级的推理之间保持清晰的边界。

未来的路线图是三级跳:从训练模型,到训练智能体,再到训练系统

APPSO 划重点: 工具让模型更有用,也让模型更容易作弊。奖励劫持是智能体时代的「定时炸弹」。谁先解决好环境设计和反作弊问题,谁就掌握了下一阶段的竞争主动权。

结论

推理浪潮的第一阶段,确立了一件至关重要的事:当反馈信号靠谱、基础设施扛得住的时候,大模型上的强化学习能够产出质变级别的认知提升。

但更深层的转变,是从推理式思考到智能体式思考:从「想更久」,到「为了行动而思考」

训练的核心对象已经变了。不再是单一的模型,是模型 + 环境构成的整个系统。更具体地说,是智能体本身,加上围绕它的一切工程。这意味着什么研究最重要也变了:模型架构和训练数据当然还重要,但环境设计、rollout 基础设施、评估器鲁棒性、以及多个智能体之间的协调接口,重要性一点不输前者。

它还改变了「好的思考」的定义:在真实世界的约束下,能够维持有效行动的那条推理链,才是最好的。 不是最长的那条,不是看起来最酷炫的那条,是最有用的那条。

它也改变了竞争优势的来源:

推理时代,拼的是更好的强化学习算法、更强的反馈信号、更可扩展的训练流水线。

智能体时代,拼的是更好的训练环境、更紧密的训练与推理一体化、更强的系统工程能力,以及闭合「决策 → 后果 → 学习」这个循环的能力。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

昨天 — 2026年3月31日首页

腾讯「八虾夺嫡」内幕:一只龙虾,怎么成了全村的希望

作者 李超凡
2026年3月30日 09:24

99 年生的张舒昱,是腾讯电脑管家团队入职不久的产品经理,这在腾讯算不上核心业务线。

今年 1 月 OpenClaw 刚在中国爆火,她着了迷,拉上几个人攒了一个产品原型 QClaw:基于 OpenClaw,一键安装,通过微信直接操控智能体。

项目在腾讯体系里几乎没有存在感,没有立项审批,没有总办资源,几个年轻人凑在一起写代码。

3 月 9 日,QClaw 内测上线。一周之内,数百万用户注册。

然后事情开始失控,惊动了腾讯总办。

高层反应极快,随即调拨数十名员工和计算资源到张舒昱的团队。同日,另一支团队推出了 WorkBuddy,同样兼容 OpenClaw。再隔一天,腾讯港股大涨超过 7%,投资者把涨幅直接归因于这两只虾。

3 月 11 日凌晨 2:06,马化腾发了条朋友圈:「自研龙虾、本地虾、云端虾、企业虾、云桌面虾,安全隔离虾房、云保安、知识库……还有一批产品陆续赶来。」

这对腾讯 11 万员工是一个鲜明的信号,无数员工将其解读为:Pony 支持他们 all in 龙虾

据 The Information 独家报道,截至本月,腾讯内部同时有 8 个团队在开发基于 OpenClaw 的产品和服务。加上在研和内测项目,总数已超过 10 个。

15 年前,腾讯内部三个团队赛跑移动 IM,张小龙的广州研发部跑出了微信,是腾讯史上赛马最成功的一次。这次换了个物种,叫赛虾。

一个 99 年产品经理做的边缘项目,两周之内变成一家万亿市值公司的战略支点,似乎有点不可思议。

张舒昱对 The Information 说了一句大实话:「我们都在用 AI Agent 做实验。此刻,没有人能说什么是最佳方法。」

翻译一下就是:我们也不知道答案,但先跑起来总比站着强。

全村的希望:腾讯为什么把命押在一只虾身上

要理解腾讯对龙虾的狂热,先要直面鹅厂当下在 AI 竞争中的处境。

过去两年,中国 AI 大模型军备竞赛打得昏天暗地。

阿里砸钱做千问,字节孵出豆包,在用户规模和模型能力上都拉开了身位。腾讯呢?手握游戏和微信广告的丰厚利润,但在 AI 赛道上远不及这两个对手激进。

自研的混元大模型尚且无法与竞争对手匹敌,又拖累了自家 AI 助手「元宝」的进展。

腾讯不是没努力。去年请来前 OpenAI 研究员姚顺雨执掌混元研究,重建了研发基础设施。 4 月即将发布的混元新一代模型,业内普遍视为腾讯模型能力的一次摸底考试。

▲姚顺雨. 图片来自:智源社区

但远水解不了近渴,在新模型交卷之前,缺乏强大的内部模型,让元宝在与豆包和千问的竞争中暂时落于下风。

所以当 OpenClaw 在中国引爆了 Agent 热潮,腾讯高层几乎是本能地抓住了这根绳子。这只龙虾证明了 AI 的下一个爆发点未必在聊天框里,可能在桌面上,在工具里,在无数个能替你干活的智能体身上。

腾讯高层的判断很清晰: OpenClaw 引发的这一轮 Agent 浪潮,将是 AI 战场重新洗牌的机会

他们逻辑是这样的,如果腾讯能通过将 OpenClaw 类Agent 能力与微信深度整合,提供配套工具和服务,成为中国最好的 Agent 使用平台,那么即便其内部大模型不是最强大的、AI助手也不是最受欢迎的,腾讯依然有可能在 AI 下半场逆风翻盘。

2020 年,马化腾在腾讯内部将视频号称为「全村的希望」,寄望于它在短视频赛道上扳回一城。如今,「全村的希望」换了物种。

区别在于,视频号好歹是亲生的,龙虾来自一个奥地利独立开发者的 GitHub 。

某种意义上,这更像是 2014 年纳德拉接手微软后做做的事,承认在移动互联网上输了,放下「什么都要自己做」的控制欲,押注一条全新赛道。

纳德拉用了十年,腾讯希望快一点。

八虾夺嫡,腾讯赛虾背后

外界把多团队并行理解为经典赛马机制,腾讯内部更愿意说「多样性」。QClaw 和 WorkBuddy 是最先冒头的两只虾,路线截然不同。

QClaw 是张舒昱从电脑管家边缘团队杀出来的,直接拥抱 OpenClaw 开源生态,做微信一键安装,野蛮生长。设计理念就四个字:打开即用。不需要配置环境,不需要懂终端命令,微信扫一下就能让 AI 接管你的电脑。

▲张舒昱. 图片来自:南京审计大学

WorkBuddy 则走了一条完全不同的路。负责人汪晟杰在接受 APPSO 采访时反复强调一件事:百分百自研,没用过一行 OpenClaw 源码

它走半自动化路线,避开了 OpenClaw「透传」模式下信息暴露在公网上的风险,采用 bot 推送通知模型,每一步关键操作都需要用户确认。汪晟杰的定义很明确:龙虾是一个概念,不等于 OpenClaw。WorkBuddy 要做的是安全可控的龙虾,企业能放心用的龙虾。

汪晟杰透露了一个时间细节:WorkBuddy 在 1 月 17 号那个周末就已启动,三四个人通宵做出 MVP(最小化可行产品),原计划 3 月 16 日发布。看到龙虾热潮后提前了一周,撞上了 QClaw 同期发布。

▲ 汪晟杰.

也就是说,腾讯并非在 OpenClaw 火了之后才匆忙跟进。多个团队在不同时间点嗅到了同一个机会,OpenClaw 的爆火更像催化剂,把水面下的项目一夜之间推上了前台。

但赛虾机制的矛盾也摆在桌上。

QClaw 和 WorkBuddy 功能高度重叠,都能通过微信操控 AI 智能体,用户该选哪个?8 支团队同时跑,资源会不会内耗?

答案藏在张舒昱那句话里:「此刻没人知道什么是最佳方法。」8 支团队同时下场,与其说是信心爆棚,不如说谁都没有把握

腾讯选择用数量对冲不确定性,多条路线同时跑,押中一条就够了。

赛马机制的精髓从来都是:靠数量提高命中概率。15 年前微信就是这么跑出来的。

马化腾的养虾哲学

赛虾的前提是有虾可赛,但这只虾不归腾讯管。

3 月 12 日,OpenClaw 创始人 Peter Steinberger 在 X 上公开批评腾讯,矛头直指腾讯的 SkillHub 服务复制了社区 Skills 却没有做出任何贡献。

两天后,腾讯通过 GitHub 捐款,随后被列为特色赞助商,与 OpenAI 并列。在上周英伟达 GTC 大会上,腾讯云 CEO 汤道生当面约见 Steinberger,提出由腾讯云贡献服务器和安全服务,并探讨与 OpenClaw 基金会更深层的合作。

中国市值最高的互联网公司之一的高级副总裁,飞到圣何塞跟一个开源项目创始人坐下来谈合作。在腾讯历史上几乎没有先例。当你需要别人的东西比别人需要你的东西更急迫时,身段自然就放下来了。

同一周的财报发布会上,腾讯总裁刘炽平宣布 2026 年将 AI 新产品的投资至少翻倍,从去年的 180 亿元起步。而在阐述钱花到哪里时,他只点了三个名字:混元、元宝、以及最新的 Claw 产品

一个月前还是边缘项目的龙虾,一跃与腾讯自研大模型和旗舰 AI 应用并列。龙虾从「大家自己玩玩」正式升格为「公司战略」

马化腾最近在财报会议上的发言,进一步回答了一个更本质的问题:腾讯想用龙虾做什么

他的切入角度直接跳过了产品层面,落在生态上。

马化腾认为龙虾类应用有记忆和个性,更像助理,带有「活人感」,能让 AI 落地到办公、终端、小程序等各种场景中,不再全部挤在 chatbot 这条独木桥上。

但真正耐人寻味的是他关于「去中心化」的论述。微信本身是中心化的 App,但微信生态是去中心化的,数十万小程序商家构成了开放平台。马化腾认为 AI Agent 天然具有去中心化特征,可以融入微信生态。有一句话特别关键:

所有服务商的心态都是怕被 AI 智能体「短路化」「渠道化」。

意思是,他不想让 AI Agent 变成一个新的中间商,把微信里的服务商变成纯粹的后端 API。他想让小程序保留独立性,同时具备 AI 能力。「每一个小程序都可以智能化和龙虾化。

这个思考比「我们也做龙虾」高出一个维度。马化腾看到的是一种范式转移的可能:AI 的价值分配方式,从「一个超级 chatbot 统治一切」变成「无数分布式智能体各显神通」。

如果这个判断成立,拥有全球最大通讯生态和最活跃小程序平台的微信,天然就是 Agent 时代最肥沃的土壤

刘炽平在财报会上把这套逻辑做了明确的总结:「Claw 提出了一种去中心化的模型……有段时间,似乎每个人都在争夺成为 AI 智能体唯一的入口和垄断者。但现实并非如此。」

一句话概括腾腾讯的押注逻辑:模型之争输了一局,但生态之争的牌还没摊开

当然,这套叙事也可以被翻译成另一句话:我们模型不够强,所以告诉你们模型没那么重要。

自洽和自欺之间,有时候只隔一层窗户纸。但关键在于,这一次腾讯确实有牌可打。微信不需要成为最强大模型的容器,只需要成为最好用的 Agent 运行环境

这和纳德拉的 Azure 逻辑如出一辙,你不需要自己做出最好的 AI,你只需要让最好的 AI 都跑在你的云上。

养虾产品全景图,腾讯到底下了多少注

腾讯的「养虾」远不止做几个 C 端产品那么简单。腾讯周五公布了「养虾产品全景图」,这套从底层到应用层的完整龙虾矩阵,密度超出外界预期。

消费级产品打头阵。QClaw 主打微信一键安装,面向普通用户;WorkBuddy 走桌面端自研路线,强调安全可控;微信 ClawBot 负责让用户在微信聊天界面直接操控龙虾。

三个产品覆盖了「小白用户一键上手」「桌面深度使用」「微信生态无缝接入」三个核心场景。光是消费级这一层,腾讯就同时铺了三条路。

企业级产品紧随其后。ClawPro 面向企业和政务客户,主打安全隔离和精细权限管控,企业微信独占通道,账号权限分级,内置技能审核机制,代码生成类操作要过审,网页搜索走安全网关。

汤道生在腾讯云峰会上重点推介了 ADP(智能体开发平台),定位是企业构建定制化 Agent 的工具箱。配合 Claw Runtime 提供安全沙箱运行环境,Lighthouse 做安全管理。

整套企业方案的逻辑很清晰:OpenClaw 太野了,我帮你把它关进笼子里。

开发者生态也没落下。CodeBuddy 是去年下半年就上线的 AI 编程助手,现在被纳入龙虾矩阵成为开发者入口;SkillHub 是 AI 技能社区,做了本土化适配,也正是因为这个产品被 Steinberger 点名批评后才有了后面那笔捐款。TokenHub 则是模型服务市场,不光接混元,也接 DeepSeek、MiniMax、Kimi 等第三方模型,统一计费。

腾讯连「卖铲子」的生意都想好了。

从这张全景图可以看出,腾讯不想只在产品上做单点突破,要做一整条龙虾产业链——从安装到运行,从个人到企业,从消费到开发,每个环节都有人盯着。

这正是汤道生反复强调的「Harness 工程」思路:Agent 时代的胜负手不在模型本身,在于脚手架。工具调用、上下文工程、长期记忆管理、工作流设计,这些看起来不性感的苦活,才是决定 Agent 好不好用的关键变量。

汤道生在腾讯云上海峰会上表示:「AI 落地不只是算法题,Harness 工程能力是关键变量。不同的脚手架设计,会显著影响实际使用效果和 token 成本。」

翻译成人话就是:模型是发动机,但没有底盘和方向盘,跑不了多远。腾讯模型暂时跑不过别人,但如果能把底盘和方向盘做到最好,照样能赢。

虾潮退去之后

把所有线索串起来,这个故事可以被浓缩成一句话:腾讯用一家大公司能调动的所有资源,去拥抱了一个自己无法控制的开源项目

这是一个充满张力的姿态。

OpenClaw 的更新节奏是每周两三个版本,API 说改就改,Breaking Changes 说来就来。Peter 点一下 merge,深圳大厦里好几支产品团队可能就要通宵救火。腾讯把战略命脉系于别人的 GitHub 仓库上,这需要的不只是勇气,还有一种前所未有的谦逊。

但换个角度想,腾讯可能也没有更好的选择了。

如果继续只在模型和 chatbot 赛道上硬碰硬,不是陪跑就是陷入同质化厮杀。但 Agent 浪潮撕开了一条新缝隙:谁能把 AI 变成最好用的工具,谁就能重新定义入口

微信有 14 亿月活,有小程序生态,有支付,有社交关系链。这些东西造不出最强模型,但能造出最好的 Agent 使用环境,这是腾讯手里唯一一张别人没有的牌。

问题在于,这张牌的有效期有多长。

OpenClaw 仍在快速迭代,生态远未定型。今天的龙虾热,会不会像去年的 Manus 一样来得快去得也快?8 支团队赛虾,会跑出下一个微信,还是跑出 8 个半成品?马化腾的「去中心化 Agent 生态」蓝图很美,但从蓝图到现实之间,还有需要经历多少次「技术事故」?

不过,有一件事是确定的。

当一家公司的 CEO 凌晨两点发朋友圈,总裁在财报会上把龙虾和自研模型并列,高级副总裁飞到美国去约见开源项目创始人,8 支团队同时下场赛虾,AI 投资直接翻倍,它就已经不是在追热点了,它在押注这家公司的未来。

赌的不是这只虾能活多久。赌的是在 AI 重构一切的十年里,腾讯还能不能坐在牌桌上,以及坐在什么位置

视频号当年也被叫做「全村的希望」。五年过去了,它还没打败抖音,但在微信生态内长出了自己的活法。龙虾能不能也走出第三条路?答案还早。

不过,当一个巨头被逼到墙角,终于想清楚自己要什么,把资源砸向同一个方向的时候,你永远不能低估它。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌
❌