普通视图

发现新文章,点击刷新页面。
昨天以前首页

林俊旸离开的48小时:一条朋友圈、一个小模型、和一个万亿美金的假设

作者 Selina
2026年3月5日 19:47

「按照原来安排继续干」

离职的消息最沸沸扬扬的时候,在 Qwen 团队的核心负责人林俊旸在朋友圈发了两句话:

「Qwen 的兄弟们,按照原来安排继续干,没问题的。」

「安排好的」?这是什么?

林俊旸离开前夕,Qwen 团队刚刚发布了一件被全球开发者社区刷屏的东西。Qwen 3.5 Small 系列,参数量从 0.8B 到 9B,专为端侧设备设计,可以在普通笔记本电脑上运行。

不是一个更大的模型——而是一组更小的模型。要知道,过去三年里,AI 行业最强大的共识是「越大越好」。OpenAI 的 Sam Altman 四处筹措万亿美金建设算力基础设施,各家实验室军备竞赛般地烧钱烧卡,底层假设只有一个:模型越大,就越聪明。

这套逻辑被称为 Scaling Law,它不仅仅是一条技术规律,更像一种信仰——整个行业的融资叙事、人才分配、硬件投资都建立在这个前提之上。

但 Qwen 3.5 Small 的发布,和林俊旸的离开,同时发生。一个技术信号和一个人事信号,交织出一个更复杂的故事:小模型到底在发生什么?它为什么重要?

当 9B 打赢 120B

即便不是开发者,也可以跑分上一窥 Qwen 3.5 的战绩:

Qwen 3.5 Small 系列中,9B 参数的模型在多项基准测试中全面超越了 OpenAI 的 gpt-oss-120B——一个参数量是它 13 倍的模型。

这些不是边缘指标上的微弱优势,而是在核心推理任务上的系统性领先。一个可以装进笔记本的模型,在数学、科学、视觉推理上全面击败了一个需要数据中心级硬件才能运行的对手。

当然了,摸着良心说,gpt-oss-120B 不是 OpenAI 的旗舰产品,而是其开放权重的中端线。而且它采用 MoE 架构,标称 120B 参数,但每个 token 实际只激活约 5.1B 参数——所以参数量的对比,在工程层面并不像字面数字那么悬殊。

但这不影响趋势本身的成立。因为 Qwen 3.5 Small 并不是孤例。

同一时期,Nature 报道了一个微型递归模型(TRM),在 ARC-AGI 逻辑测试中击败了多个顶级大语言模型。Google Research 在 2026 年初发表论文,证明小模型在意图提取任务上的表现优于显著更大的模型。PNAS 上的一项研究更直接——模型规模与说服力之间呈急剧递减收益,大到一定程度之后,更大几乎不带来更好。

《华尔街日报》早在 2025 年 10 月就已经敢说,「大模型拿走了所有的关注,但小模型才真正干活的那个。」

这些信号共同指向一个判断:以小博大不是偶发事件,而是大势所趋。

那么问题来了——小模型凭什么?

才不是大模型的替身文学

直觉上,人们容易把小模型理解为「大模型的平替」,同样的方法,只是规模小一些,性能差一点,胜在便宜。

但事实恰恰相反:今天的小模型之所以能以小博大,是因为它们在技术方法论上,走了一条和大模型完全不同的路。

第一,数据质量压倒数据规模。 大模型的路线是「尽可能多地吞入互联网数据」,而小模型路线的代表——比如微软的 Phi-4 系列——走的是精筛路线:用高质量的合成数据加上严格筛选的公开数据集,让模型在更少的数据上学到更精确的能力。这背后的逻辑转变是根本性的:不是「喂得越多越聪明」,而是「吃得精才学得好」。

第二,原生多模态设计取代了适配器拼接。 传统做法是先训练一个纯文本大模型,再通过适配器模块接入图像、视频、音频等能力。Qwen 3.5 采用了完全不同的架构:将视觉 token 和文本 token 在同一个潜空间中联合训练,从底层就是多模态的。这意味着它是一个天生就同时理解文字和图像的模型。这种架构在小参数量下反而更有优势,因为不需要额外的适配器开销。

第三,量化技术带来的不只是压缩。 4-bit 量化常常被理解为「把模型压小 4 倍以节省存储」,但它真正的意义在于减少 4 倍的内存吞吐量。在端侧设备上,瓶颈往往不是存储空间,而是内存带宽,也就是数据从内存搬运到处理器的速度。量化技术让小模型在带宽受限的手机和笔记本上,获得了决定性的速度优势。

这些方法论上的突破已经开始转化为产品。3 月第一周,苹果发布了 M5 全线芯片,每颗 GPU 核心内置 Neural Accelerator,AI 性能较 M1 提升最高 8 倍。与此同时,苹果研究院公开了 Ferret-UI Lite——一个仅 3B 参数的端侧 GUI 代理,可以本地操控手机和桌面应用。加上 Apple Intelligence 约 3B 参数的端侧基础模型,苹果正在将「on-device AI」从概念推进到芯片、模型、交互三位一体的产品形态。

微软的 Phi-4 multimodal 也开始尝试商用上线 Azure,3.8B 参数,接受文本、音频和图像输入。开源社区的反馈更加直接——Reddit 上的开发者实测后认为 Qwen 3.5 的 4B 版本是「甜点级」模型:跨任务稳定、无崩溃、远快于 9B 版本。

技术路线已经被验证,产品化拐点已经到来,天边泛起鱼肚白,曙光乍现。

而就在此刻,林俊旸选择离开。

最会做小模型的公司,最没有动力让它成功

Qwen 3.5 Small 在发布后获得了开发者社区的广泛认可,开源社区的评测结果甚至超出了官方发布时的宣传。

但是,他所在的公司是阿里巴巴,阿里巴巴的商业引擎是阿里云。

大模型和云计算之间存在天然的正向循环:模型越大,推理所需的算力越多,客户就越需要购买云计算服务。对阿里云来说,大模型是完美的商业叙事——它同时推高了客户的算力需求和对云平台的依赖。

而小模型的逻辑恰恰相反。小模型的核心价值在于可以在端侧设备上运行——手机、笔记本、边缘服务器。这意味着客户可以绕开云,在本地完成推理。对用户来说,这意味着更低的成本、更好的隐私和更低的延迟。但对阿里云来说,这意味着收入被侵蚀。

Qwen 3.5 Small 做得越好,对阿里云的商业叙事就越尴尬。

这不是阿里一家的问题。放眼中国的科技巨头,几乎所有 AI 领先的公司都面临同样的结构性矛盾。百度和腾讯的处境与阿里类似——商业模式建立在云服务和平台抽成之上,小模型的端侧化趋势直接削弱了它们的价值主张。

字节跳动的豆包手机是一个有趣的例外,但字节做硬件才刚起步,远没有建立起「芯片+操作系统+模型」的垂直整合能力。

华为理论上最有条件,既有芯片,又有终端设备。但在制裁的影响下,它的算力上限本身就逼着它走小模型路线,这更多是被动的求生策略,而非主动的战略选择。至于小米、OPPO、vivo,它们有设备,却不是 AI-first 的公司,缺乏自研模型的基因和持续投入的动力。

全球范围内,真正打通端侧 AI 全栈的公司,可能只有一家:苹果。芯片、设备、操作系统、自研模型,全部自有。苹果的动力来自复合型的商业模式,这驱动它把一切计算尽可能留在设备上,因为每一次端侧 AI 体验的提升,都会转化为硬件的溢价和生态的黏性。

不过,这里需要诚实地处理一个可能的反驳:云厂商难道不能走「端云协同」的路线吗?用小模型做端侧入口,复杂的推理任务回调云端处理,两边都不耽误。

理论上可以。但这恰恰说明了问题——在端云协同的框架下,小模型对云厂商来说是「引流工具」,而不是「独立产品」。云厂商没有动力把小模型做到好到不需要云。

还有一个绕不开的反例:微软也是云厂商,但它在认真做 Phi-4 系列小模型,而且已经商用上线。这是否说明「左右互搏」的论点站不住脚?

非也。微软之所以能两条腿走路,是因为它同时拥有 Windows 和 Surface 的硬件生态、Azure 的云平台以及 Copilot 的端侧产品线。做 Phi-4 对微软来说是防御性布局:如果端侧 AI 的趋势不可逆转,为了大局,宁可壮士断腕,自折一臂,也不能把端侧市场拱手让给开源社区和苹果

但阿里没有这个选项——没有消费级操作系统、没有主流终端硬件、没有面向个人用户的 AI 产品矩阵。Qwen 做得再好,也没有自家的「最后一公里」可以落地。

动力不同,产品的天花板就不同。

这就形成了一个令人不安的画面: 小模型从实验室走向产品的真正瓶颈,不是技术能力,而是供需错位;最擅长做小模型的公司(云厂商),最没有动力让它真正成功;最需要小模型的公司(设备厂商),又缺乏独立研发的能力。

「没问题的」

回到林俊旸的那条朋友圈,「继续按照安排好的干,没问题的」。

也许技术路线确实没有问题,一切都在朝着正确的方向走。但在一家以云为重的公司里,就算做出世界级的小模型,团队的处境注定不会舒适。

这不是对阿里的批评——任何一家以云收入为生命线的公司,面对一项可能侵蚀自身收入的技术路线,都会陷入同样的两难。这是一个结构性矛盾,不是个人或管理层的选择问题。

比人事更值得关注的,是 Scaling Law 本身正在发生的变化。

过去三年,「越大越好」不仅仅是一条技术规律,它是整个 AI 行业的信条。融资叙事围绕它建立——投资人相信更大的模型意味着更强的能力,所以万亿美金涌向算力基础设施。人才分配围绕它运转——最顶尖的研究者被吸引到训练最大模型的团队。硬件投资围绕它定价——英伟达的估值建立在一个前提之上:对算力的需求会永远增长。

现在,这个前提正在松动。MIT 的研究估计,效率提升将使中等硬件上的模型在 5 到 10 年内逐步追平最大最贵的模型。芝加哥大学的研究表示,数据质量正在取代数据规模成为核心竞争维度。

产品化的方向不再只有云端,而是同时向端侧扩散。Scaling Law 正在从一条单调递增的曲线,变成一张需要在多个维度上寻找最优解的地图。

不再是「越大越好」,而是「在对的地方,用对的大小」。

林俊旸大概比大多数人更早地感受到了这个变化。他用 Qwen 3.5 Small 证明了一件事:在对的方法论下,9B 参数可以击败 120B。但他同时也撞上了另一堵墙——技术上的正确,不等于商业上的可行,更不等于组织上的舒适。

他说,没问题的。确实,技术路线已经铺好了,而剩下的问题不在实验室里,而在实验室外面。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


打车这件事,被千问用 AI 重新定义

作者 艾 梵
2026年3月25日 14:00

马年春节,「千问帮我」变成了一种新年俗。

5520 万杯奶茶、66 倍的电影票订单、机票单周暴涨 540%——「一句话下单」近 2 亿次的背后,是用嘴巴购物的春节新景象。其中最让我意外的一个数字是:有超过 400 万名 60 岁以上的用户,在这个春节让千问帮忙下了单。那些习惯在 App 界面里迷路的长辈,开始用说话代替点击了。

春节热潮还没退去,千问又增加一个更高频的日常场景——打车。

不过,打车这件事,和之前的那些「一句话下单」不太一样。奶茶口味选错了,大不了将就喝掉;电影票订错了,退改也不算大问题。

但打车是一个对「精确」有刚性要求的场景,地址差一个字,你可能被送到城市的另一头;时间判断出了偏差,误掉的可能是一趟航班。

这意味着 AI 接手打车,没有「差不多就行」的余地

说到打车,这件事说难不难,但「顺不顺」这件事,差异很大。打开 App,手动输入目的地,选车型,找定位,点确认……整套流程少说十几下。还好,这已经是最理想的情况了。

麻烦的是那些「塞不进下拉菜单」的需求。「路上顺便接个朋友」、「有孕妇,开得稳一点」——这类话,打车 App 里没有地方填。你也可以上车之后再和司机沟通,但大多数时候凑合凑合就算了。

打车 App 这么多年,把流程打磨得越来越顺,但底层逻辑没变——「人适应 App」。它把你的需求拆成有限的几个下拉选项,你在里面挑,它来执行。

可打车本身就是一件变量特别多的事。起点终点只是最基础的两项,往上叠加的可能是车型偏好、价格区间、时间预约、途经地点、乘客状况、车内环境……每多一个变量,用传统界面操作的成本就多一层。

如果 AI 能理解这些需求,事情就不一样了,这也是千问 AI 打车的逻辑:让 App 适应人,说出来就能走

从最简单的通勤,到带着全家和一堆特殊要求出发,APPSO 带你看看这个 AI 打车到底能不能满足我的需求。

一句话就能走

早上赶时间,我试了最直接的一句:「打车去公司,出租车也可以。」

我说完之后,千问直接展示了行程规划页面:重点显示「已为你规划去上班的行程」,并同步展现了出租车选项——司机已接单。

就这一句话,它理解了「去公司」——调取了常用地址;也听懂了「出租车也可以」——把车型偏好同时带上,直接办妥。从说话到接单,操作步骤:1 步。

这件事本身有点微妙。「打车去公司,出租车也可以」是人对人说话时才会有的表达方式,不是人对系统填的表单。千问让这句话变得可以被执行——这个升级,比「快了几秒」要有意义得多。

之前在高德里设好了家和公司的地址,现在切到千问打车,那些预设直接就在,完全不需要重新配置什么。每天重复的路线,每次都稳稳地执行到位,通勤这种事,要的就是快、准、稳。

就因为这个,我就特别想把千问装到我爸手机上。过去她出门购物哪怕拿着大袋小袋也不愿意自己打车,不是嫌贵,就是不太会用打车软件,输入那些信息对她来说都太过复杂,最后就懒得折腾了。

只要按住语音说了句:「打车回家。」千问马上识别了当前位置并自动填入,就近匹配车辆,常用地址自动记忆识别,司机已接单。确认一下,车就在来的路上了。

「动动嘴,车就来了」的体验,不在于「快了多少秒」,在于说清楚你想要什么,这件事变顺滑多了。甚至那些原本卡在界面门口的老人,终于可以直接走进来了。

那些你「没法输入」的需求,也能满足

最简单的一句话搞定通勤,已经够用了。但打车的需求远不止如此——真正麻烦的,是那些你心里有、嘴上能说、但 App 界面里永远没有输入框的部分。

我试了一句:「叫辆空气清新的车去虹桥T2,我过敏性鼻炎。」

以前这话只能和司机说,而且大多数情况下,等你上车再说已经来不及了。

千问回应后,行程确认页面里「空气清新」选项被自动勾选。AI 直接把鼻炎过敏的诉求翻译成了可筛选的车辆偏好标签,不需要你自己去找选项。

再试一句:「逛了一下午不想挤公交了,帮我叫个特惠快车。」

这句话里藏着两个信息:累了不想挤公交的情绪,和对价格的在意。千问直接匹配了特惠快车,预估费用 9.1 元–12.7 元,确认叫车后支付页面重点显示已支付金额和「平台优惠 -12.8 元」——便宜这件事,不用自己翻菜单比价,说一句就到位了。

还有一次,我说:「娃刚睡着,帮我叫个安静点的车回家。」

这句话的信息量远不止「安静」两个字。「安静点的车」背后的真实需求是:车里别乱说话、别打电话、开稳一点、别急刹——这些对司机行为的隐性期待,千问也能满足。行程确认页面里,直接给司机带句话「车内保持安静」

商务场景同样如此。「接待重要签约客户,帮我安排一辆豪华车,预约明晚 18 点从公司到北京饭店。」一句话说完,千问推荐豪华车,预约时间精确到 18:00。

过去在打车软件里,选车型、设置预约时间、填写目的地,是分别独立的操作流程。现在千问压缩进一句话里,一起办完。

乘车途中,朋友突然发消息:「我也在诶。」

搁以前,虽然打车软件也能添加途经点,但还是要打开软件找到这个选项手动输入再点选,还是相对繁琐,还真不如让朋友自己重新打一辆来得方便。

现在,我可以直接说:「顺路接下我朋友,她在朝阳公园南门。」

地图重新规划,途经点自动标记在地图上。没有重新开单,没有让朋友自己叫车,没有任何别扭,就一句话,插进正在进行的行程里,办完了。

过去叫车,是在系统选项里「圈选需求」。AI 叫车,是用自己的语言「描述需求」。千问负责把你说的话,翻译成可以执行的指令。

那些选项框装不下的,现在说出来,也能办。

越复杂的需求,越能看出差别

前面这些,算是小试牛刀。打车需求的真正复杂度,是多个变量同时出现的时候,千问 AI 打车正是冲着这类复杂场景去的。

「周六下午两点,全家从家出发去西湖景区地面停车场,顺路经过山姆会员商店,要坐得下五个人。」

这句话里塞了四个要素:预约时间、目的地、途经点、座位数。传统打车软件要逐一输入和确认,而且途经点和多人座位的组合往往要反复调整。

千问对这类多变量场景的处理方式是这样的:推荐 6 座商务车,途经点选的山姆会员商店,预约时间定到周六 14:00,变量没有落下任何一个。

真正让我有点触动的是这个场景:「帮我打车去妇保医院,有孕妇,告诉司机不要急刹和猛加速。」

目的地、乘客特殊状况、驾驶行为要求——多个维度同时提出。千问匹配了专车,勾选了驾驶平稳,还生成了一条针对孕妇乘车情况的关怀提示,供用户确认是否传达给司机。

「有孕妇,不要急刹和猛加速」这个细节,AI 读懂了,然后把它翻译成了一套完整的服务指令。以前这些话只能坐上车再说,或者不说,靠运气。下拉菜单从来没有一个选项叫「孕妇乘客,请稳驾并提前知晓」。

需求越复杂,这种差距就越明显。点选式交互的天花板就在那里——它能覆盖的,只有被设计进去的那些需求。自然语言不一样,你能说出来的,基本都能被理解。

而且在这些能力上线后,千问 AI 打车的边界还会继续往外扩。

打车只是开始,要让每次出发都更省心

到这里,千问 AI 打车的基本能力已经摸得差不多了。但更让我惊喜的,是场景串联的体验,这是把打车和其他生活场景连在一起的时刻。

去看演唱会,在鸟巢外说「帮我找鸟巢附近的酒店,演出结束后今天入住,飞猪推荐卡片弹出来,确认第一家,再说「帮我定第一家,再预约一辆车 22 点送我过去」——车和房,两句话搞定,散场直接走人。

到了酒店随口问「推荐下本地人爱吃的卤煮」,千问调出周边热门店铺。从看演出到住下来再到吃上饭,三件事在同一个对话里接连搞定。

通勤路上说「顺便帮我点杯咖啡送到前台」,车在路上,咖啡在制作——人到公司,咖啡差不多也到了。

看电影说「订两张今晚的票,打车去,散场再预约车回来」,三句话,来去都安排好。赶飞机前问「地铁还是打车哪个更快」,千问给出建议,接着直接叫车——决策和执行,在同一个对话里完成。

这才是千问 AI 打车最大的想象力所在,不在打车本身,而在打车前后。之前千问陆续接入了飞猪、高德、大麦、淘宝闪购,「吃喝玩乐行」正在被一条对话线串起来。

以前用 App,本质是「工具集」——地图一个,打车一个,订酒店一个,买票一个,靠自己在脑子里拼。千问的逻辑不一样:理解你在做什么,把接下来该做的事直接推到你面前。AI 帮你省掉的,是那些本不该操心的琐事。

好的 AI,帮你把现实生活的每一环串起来

过去几年,我们谈 AI,谈的更多是「用 AI 写作」「用 AI 画图」「用 AI 生成代码」——这些能力确实强大,但本质上,它们是把你带进一个屏幕里的虚拟创作世界。你和 AI 对话,产出一段文字,一张图,然后……这段互动就结束了。

千问 AI 打车做的事情,方向截然相反。

它不是让你沉进去,而是帮你走出来。你说一句「打车回家」,AI 在背后接通了高德的地图、物理世界的车辆调度、你常用地的地址,然后把一辆真实的车开到你楼下。

你说一句「订两张今晚的电影票,散场帮我叫车」,两小时后你坐在影院里看大银幕,散场走出来车已经在等你——AI 把订票、打车、回家这些原本分散的环节,串成了一个完整的夜晚。

这是一种很不一样的 AI 使用方式:它的成果不是一份文件,而是一次真实的生活体验

千问背后的阿里生态,在现实世界里铺了很多年——飞猪管你去哪,淘宝管你买什么,饿了么管你吃什么,大麦管你看什么……这些产品各自独立,以往要在一个个 App 之间来回切换,手动把「出门这件事」拼起来。

现在,打车补上了最后一块拼图。

从家门口叫一辆车出发,到咖啡在路上、票已提前选好、演出散场回程提前预约——这条链路,终于在一个对话框里连通了。

千问事业群总裁吴嘉说:「我们真正想的,是让 AI 融进老百姓的日常生活场景中。」

这句话放在这里,我觉得格外准确。AI 最大的价值,从来不在于它能创造多少数字生命,而在于它能让你的真实生活过得更顺。

现在它能帮你把吃饭、出行、看演出、送老人回家这些原本散落在十几个 App 里的环节,串成一条连贯的线。吃一顿饭更省心,看一场演出更完整,带着全家出门更从容,送老人回家更放心。

所以 AI 最好的样子,不应该只是把你钉在屏幕前,更要帮你稳稳接住现实生活的每一环

从说出口,到真实地发生——这条路越短,AI 就越有价值。

千问 AI 打车,只是让这条路,又短了一截。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌
❌