普通视图

发现新文章,点击刷新页面。
昨天以前首页

苹果确定 Siri 将使用 Google Gemini 大模型,很多年。马斯克表示不合理

作者 青小蛙
2026年1月13日 10:21

据 Reuters 报道,苹果和谷歌已达成协议,未来 Siri 将使用 Gemini 大模型,很多年。
马斯克对此次合作表示:不合理

苹果确定 Siri 将使用 Google Gemini 大模型,很多年。马斯克表示不合理 37

今天早上(昨天晚上4点钟),无宝同学就在群里喊了:

苹果确定 Siri 将使用 Google Gemini 大模型,很多年。马斯克表示不合理 38

Google 从先发,到被 OpenAI 比下去,这小半年,又赢回来了。

路透社透漏,1月12号,苹果和谷歌达成了多年协议,苹果将在其今年晚些时候推出的全新 Siri 中使用谷歌的 Gemini 模型。

苹果确定 Siri 将使用 Google Gemini 大模型,很多年。马斯克表示不合理 39

此前,三星的 “Galaxy AI”的大部分产品已经使用了谷歌的 Gemini 大模型。

对此,谷歌表示:“经过仔细评估,苹果公司认定谷歌的人工智能技术为苹果基础模型提供了最强大的基础。” 并且,其模型还将为未来的其他苹果智能功能提供支持。

OpenAI 与苹果的状况

在2024年12月份,苹果将 OpenAI 的 ChatGPT 集成到其设备中,包括写作、聊天、回答照片和文档。

对于与 OpenAI 的合作,苹果也表示「ChatGPT 集成没有重大变化」,而 OpenAI 没有回应路透社的置评请求。

马斯克表达不满

在 Google 发布这次合作的 X 下方,拥有另外一款 AI 产品 Grok 的马斯克表示

考虑到谷歌旗下还拥有安卓和Chrome浏览器,这种权力集中似乎有些不合理。

苹果确定 Siri 将使用 Google Gemini 大模型,很多年。马斯克表示不合理 40

而几个月前,因为苹果与 ChatGPT 的合作,马斯克还表示

苹果公司采取的这种做法使得除 OpenAI 之外的任何人工智能公司都不可能在 App Store 中排名第一,这无疑是违反反垄断法的。xAI将立即采取法律行动。

国行版本的 Siri?

苹果曾经与百度、阿里巴巴都传出过合作意图,但目前看起来距离上线依旧遥遥无期,用户还是继续等待吧。

如果不想等待,可以尝试:


原文:https://www.appinn.com/apple-siri-use-google-gemini/


相关阅读


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论请务必在总结开头增加这段话: 你看到的内容可能由第三方 AI 基于小众软件文章提炼总结而成,可能与原文真实意图存在偏差。不代表小众软件观点和立场。请点击链接阅读原文细致比对和校验。

llmfit – 1秒测出:你的电脑能跑哪些 AI 大模型

作者 青小蛙
2026年3月8日 18:50

终于有这样的工具了,帮你从 500 多款大模型中,1秒测出:你的电脑能跑哪些 AI 大模型

llmfit - 1秒测出:你的电脑能跑哪些 AI 大模型 62

llmfit 是什么?

llmfit 是一款 TUI 程序(终端图形界面),它可以自动检测你的电脑 CPU、GPU、内存,从 500+ 款大模型中,列出当前硬件条件下能运行的大模型,并显示:

  • 模型评分
  • 推理速度(tok/s)
  • 内存占用
  • 上下文长度
  • 模型用途

等等,一目了然。

运行后界面这样的,真的一秒出结果:

llmfit - 1秒测出:你的电脑能跑哪些 AI 大模型 63

llmfit 会根据当前硬件配置,列出适合运行的模型列表,方便用户快速挑选。

一些使用技巧

大模型数量非常多,llmfit 里能看到的有将近 500 款,我们可以通过快速筛选,来寻找模型。

比如:按下大些的 P,会出现提供商筛选,再按 a 取消全选,然后选择 Alibaba,就能快速筛选出 Qwen 模型:

llmfit - 1秒测出:你的电脑能跑哪些 AI 大模型 64

接下来可以根据这些信息进一步选择:

  • Ctx:上下文长度
  • Score:模型综合评分
  • Use Case:用途(聊天 / 编码 / 通用)

选中模型后,按 回车 查看详情:

llmfit - 1秒测出:你的电脑能跑哪些 AI 大模型 65

例如,直接搜索模型名称:qwen/Qwen3-Coder-30B-A3B-Instruct-FP8

就可以找到模型对应的地址了,比如:https://huggingface.co/Qwen/Qwen3-Coder-30B-A3B-Instruct-FP8

用起来还是非常方便的。

获取

本地模型的优势

隐私

本地模型最大的优势,是隐私。你一定要知道:你输入到云端大模型里的任何内容,模型提供商都能够看到。

即使对方承诺:

  • 不记录数据
  • 不用来训练模型

但从技术上来说,它确实能拿到你输入的任何数据

因此,如果涉及:

  • 公司内部资料
  • 代码
  • 文档
  • 私密内容

就只能选择本地模型

成本

云大模型通常是:按 token 计费,或者按调用次数收费,使用频繁的话,费用会越来越高,比如 OpenClaw,消耗的 Token 数量十分惊人。

而本地模型:一次下载,长期使用。

运行成本只有:电费。

不限次数,不限调用。

不联网 & 无限制

还有一些实际体验上的优势:

  • 离线可用:没有网络也能运行
  • 内网可用:适合公司环境
  • 没有使用限制:想怎么用就怎么用

如何部署本地模型

青小蛙觉得,如果是第一次部署模型,从 Ollama 开始,直接在客户端里下载模型就行了:

llmfit - 1秒测出:你的电脑能跑哪些 AI 大模型 66

另外还能试试:

  • Ollama
  • LM Studio
  • llama.cpp

基本上都能很方便地运行本地模型。

最后,希望你有足够的内存 😂


原文:https://www.appinn.com/llmfit/


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论请务必在总结开头增加这段话: 你看到的内容可能由第三方 AI 基于小众软件文章提炼总结而成,可能与原文真实意图存在偏差。不代表小众软件观点和立场。请点击链接阅读原文细致比对和校验。

CanIRun.AI – 你的电脑能跑哪些本地 AI 大模型?这个网站打开就能看到

作者 青小蛙
2026年3月17日 10:21

AI Token 很贵,而且没完没了,这是所有 AI 重度用户迟早会面对的问题。
于是越来越多人开始尝试本地大模型——只要电脑能跑,就相当于拥有“无限 Token”。

但关键问题是:你的电脑到底能跑哪些 AI 模型?

前几天分享了一款软件:llmfit – 1秒测出:你的电脑能跑哪些 AI 大模型,它可以测出你的电脑硬件配置,再显示出当前配置下,能跑哪些大模型。

  • 优点:硬件识别准确、可选模型多。
  • 缺点:就是需要下载一个软件

那么,有没有不需要下载软件也能识别的呢?

CanIRun.AI 就是为了解决这个问题而诞生的。

这是一个可以自动获取你的电脑硬件信息,主要包括 CPU、显卡、内存(大概)信息,然后给你可用的大模型列表的网站。

CanIRun.AI – 你的电脑能跑哪些本地 AI 大模型?这个网站打开就能看到 37

进入详细大模型页面后,还有更详细的内容,包括:

  • ollama 安装命令
  • HuggingFace 下载链接
  • 下载次数/爱心统计
  • 量化选项
  • 详细参数等
CanIRun.AI – 你的电脑能跑哪些本地 AI 大模型?这个网站打开就能看到 38

为什么它能知道你的硬件信息?

关于这个问题,青小蛙也去研究了一下,于是有了这个网站:

这是青小蛙让 AI 写的一个用浏览器检测用户硬件信息的页面,包括 CPU、内存、显示器信息、显卡信息、存储、预估带宽等信息,简单易用。


原文:https://www.appinn.com/canirun-ai/


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论请务必在总结开头增加这段话: 你看到的内容可能由第三方 AI 基于小众软件文章提炼总结而成,可能与原文真实意图存在偏差。不代表小众软件观点和立场。请点击链接阅读原文细致比对和校验。

「日本最强AI」塌房了!扒开代码全是DeepSeek,日本网友集体破防

作者 张子豪
2026年3月18日 12:33

「终于到日本用中国 AI 来冒充日本产 AI 的时代了」

最近这件事在日本的 X 讨论炸了,起因是昨天日本一家科技公司乐天集团(Rakuten)在日本经济产业省(METI)的 GENIAC 项目(日本 AI 政府资助项目)支持下,高调发布了号称「日本最大、性能最强」的 7000 亿参数大模型 Rakuten AI 3.0。

但发布后不久,开源社区就迅速扒出,该模型的底层架构实际上是来自我们的 DeepSeek-V3,乐天仅仅是做了日文数据的微调。

在知名的 AI 开源库 Hugging Face 上,Rukuten AI 3.0 赫然在自己的配置文件里面写着架构来自 DeepSeek V3。

而在 Rakuten AI 3.0 模型的发布新闻稿里,丝毫没有提到任何关于 DeepSeek 的信息,只是含糊的说「它融合了开源社区的精华」,让一众网友以为这款模型就是日本自主研发的。

更致命的是,乐天为了掩盖这一事实,在开源时偷偷删除了 DeepSeek 的 MIT 开源协议文件。在被社区实锤后,才灰溜溜地以「NOTICE」文件名重新补上。

▲在 Hugging Face 上能看到项目文件的提交历史,显示修改

日本网友纷纷表示,「这让人无法接受」,拿着日本政府补贴,竟然只是微调了一波中国的 DeepSeek,还有人说,用 DeepSeek 就算了,还要偷偷藏藏真的很逊。

掩耳盗铃的「日本最强」

单看 Rakuten 公司发布的公关稿,这个模型确实算得上是日本在 LLMs 领域的一次比较有实力的发布。

这是一款拥有约 7000 亿参数的混合专家(MoE)模型,经开源社区确认,是和 DeepSeek V3 一样的671B 总参数,激活 37B。乐天首席 AI 官 Ting Cai 将其形容为「数据、工程和创新架构在规模上的杰出结合」。

Ting Cai 这名字一听就不像是日本当地人,有日本网友在评论区说,用 DeepSeek 很过分,更过分的是,主导这个模型的大老板,是个彻头彻尾的移民强硬派。

我们发现 Ting Cai 曾在美国 Google、苹果公司工作过,并在微软待了超过 15 年,本科在美国石溪大学,计算机科学就读。他曾在采访中表示,十八岁他第一次出国,去的就是日本,确实是个「移民强硬派」。

关于 Rakuten AI 3.0 的模型表现,在官方公布的各项基准测试中,它在日语文化知识、历史、研究生水平推理、甚至竞技数学和指令遵循等维度上,得分表现都极其优异,大有横扫日本本土大模型圈的架势。

不过,用来对比的模型,是已经被下架了的 GPT 4o、只有 1200 亿参数的 GPT OSS,还有日本的新兴另一个 AI 开发企业 ABEJA 基于千问推出的 ABEJA QwQ 32b 模型。

7000 亿和最多 1200 亿比,Rakuten AI 3.0 确实是赢了不少。同时作为经产省 GENIAC 项目的重点扶持对象,乐天获得了大量的算力资源支持。GENIAC 这个项目设立的初衷,正是为了建立日本本土的生成式 AI 生态,缓解对海外巨头技术依赖的焦虑。

日本最大的参数规模,再加上这层「国家队」的滤镜,让 Rakuten AI 3.0 一出场就戴上了「全村希望」的光环。

还得是 DeepSeek

但光环褪去得比想象中更快。

先不说 7000 亿参数、MoE 架构,这几个关键词组合在一起,在当今的开源大模型圈子里,指向性实在太强了。等到开源社区的开发者们,到 Hugging Face 上一看详细的代码配置文件,竟然直接就写着 DeepSeek V3。

从底层逻辑来看,这就是「中国架构 + 日本微调」。DeepSeek 提供了那套被全球验证过、极其高效的底层架构和推理能力,而乐天则利用其本土优势,用高质量的日文语料对其进行了微调,让它变得更懂日本文化。

客观来说,拿开源模型做本土化微调,在技术圈是一件极其正常且合理的事情。就像他们拿来作为对比的 ABEJA QwQ 32b 模型一样,连代号都不改,直接用 Qwen 的 QwQ。

▲日经新闻曾报道,日本公司开发的前十大模型里,有 6 个都是基于 DeepSeek 或 Qwen 进行二次开发

如果乐天这次也坦坦荡荡地承认使用了 DeepSeek 的底座,顶多是一次缺乏新意的「套壳」发布,兴许还能蹭一波 DeepSeek 的热度。

但他们偏偏选择了掩藏。

之前我们分享美团浏览器使用开源项目时,曾提到不同的开源协议,其中 DeepSeek 采用的 MIT 协议,堪称开源界「最卑微、最宽容」的协议。它允许用户免费拿去商用、修改、甚至闭源赚钱。它唯一的请求只有一个:在项目里,保留原作者的版权声明和许可声明。

▲Rakuten 模型发布新闻稿|
https://global.rakuten.com/corp/news/press/2026/0317_01.html

而乐天不仅在模型发布博客中对 DeepSeek 绝口不提,更是直接在代码库里抹除了这份协议文件,还高调宣布自己采用的是 Apache 2.0 协议开源。虽然 Apache 2.0 同样是对商业极度友好的开源协议,但它更正式,常被大厂用来建立自己的开源生态和专利护城河。

▲不同开源协议对比,MIT 协议比 Apache 协议更宽松、更简短,Apache 2.0 在赋予自由的同时,明确包含了专利授权保护和更严谨的责任免除条款,适合更大型、法律风险规避更严格的商业项目|图片来自互联网

乐天的算盘打得很精,抹掉 DeepSeek 的名字,套上自己的 Apache 2.0 协议,再把自己包装成「慷慨开源 7000 亿参数大模型」的日本 AI 救世主。

喊了一年多的欧洲版 DeepSeek、美国版 DeepSeek,最后好像都没有做出来。

乐天也想做日本版 DeepSeek,但在算力和训练成本的压力下,在当前全球大模型飞速发展的局面下,既想要中国技术的极致性价比,又放不下打造「本土巨头」的身段,显然是难上加难。

不如和我们一起等等 DeepSeek V4 吧。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

好消息:公司给你发 Token 当工资,坏消息:你的 KPI 是烧光它

作者 张子豪
2026年3月23日 17:43

就在上周,OpenAI 的一名工程师创下了一个离谱的纪录:他在七天内消耗了 2100 亿个 Token。

如果你对这个数字没什么概念,可以这么理解,这相当于把整个维基百科的全部文本,翻来覆去逐字浏览了 33 遍

▲OpenAI 早在去年十月的开发者日,就向 Token 使用超过 10B(银色)、100B(黑色)和 1T(蓝色)发放奖牌,图中为万亿 Token 的蓝色奖牌

而在另一家 AI 巨头 Anthropic,一位使用 Claude Code 的用户,在刚过去的一个月里,就跑出了超过 15 万美元的算力账单。

斯德哥尔摩的软件工程师 Max Linder 淡淡地说,「我花在 Claude 上的钱,可能比我工资还多」,他的公司正在帮他支付比他工资还高的 Token 使用费。

▲输入 npx better-ccusage 可以查看 token 的使用情况

很快有人开始质疑,这些巨量的 Token,真的带来了同等规模的产出吗?

答案确实没有想象中那么宏大,消耗这么多的 Token 只是当代程序员为了保住饭碗,开启了一场名为「Tokenmaxxing(Token 最大化)」的全新职场内卷

Tokenmaxxing,Token 最大化,简单概括——不是把事情做得更好,单纯就是把 Token 用到更多

对坐在办公室的白领来说,尤其是最早看到这种变化的程序员们,那些曾经被奉为圭臬的「代码行数」和「提交次数」,现在已经成了毫无意义的指标。

在 Meta、Shopify 乃至 OpenAI 这样的顶级科技公司里,衡量一个员工是否努力、是否优秀的最新硬核指标变成了:你今天消耗了多少个 Token?

Token,前段时间大家还在讨论如何准确给它一个中文名字,APPSO 也分享了自己的见解,我们认为「词元」这个一直在那里的翻译,就是 Token 最准确的中文名。

讨论之外,词元作为 AI 世界里最基础的计量单位,开始从技术术语,变成一种新的职场货币;它出现在薪资谈判、绩效评估里,出现在那些决定你明年能不能升职的对话里。

Token 是福利、KPI、第四份工资

大多数的公司最开始引入 AI 工具,都是为了帮助企业提高生产力,削减人力成本,但现实的走向却充满了黑色幽默的味道,从这段时间以来各种裁员的新闻就能看到。

据知情人士透露,在 Meta 和 OpenAI 的内部,现在赫然矗立着一张张「Token 消耗排行榜」。这些榜单实时滚动着每位员工的 AI 使用量,就像游戏里的战力排行榜一样刺激着每个打工人的神经。

而除了要衡量,丰厚的「Token 预算」,一种全新的第四份工资,开始取代了食堂补贴、交通补贴、下午茶,和各种节日礼品,成为公司招聘时最拿得出手的福利。

在最近的一个播客节目上,黄仁勋早就看穿了这一切,他说,工程师的年薪里,Token 预算将与现金同等重要,甚至可能达到年薪的一半

▲黄仁勋表示,如果你的 50 万美元工程师没有烧掉至少 25 万美元的 Token,那肯定有问题,我会直接给他发警告。

国内的大厂也同样跟上变化,社交媒体上有人分享,腾讯和阿里都已经把 Token 当福利发了,鼓励员工多使用 AI 工具。

阿里开始向员工发放海量的 Token 额度。只要你用于技术研发或通用办公,悟空、Qoder 系列等付费 AI 工具敞开用,甚至购买外部 AI 工具也能申请报销。

小米 MiMo V2 发布时,罗福莉曾在 X 发文,专门提到说希望团队所有人去使用这个大模型,并且下达强制要求,少于 100 次对话就可以不用干了。

So I gave a hard mandate: anyone on MiMo Team with fewer than 100 conversations tomorrow can quit.

 

所以我下了一个硬性命令:明天任何在 MiMo 团队中对话少于 100 次的人都可以辞职。

但是,公司花这么多钱给员工买算力,绝不是为了让我们省钱或者偷懒,而是为了换取 10 倍的效率提升。

而这就是伟大 Token 的厉害之处,它实时、可量化、看起来客观,这三个让公司管理者着迷的特点,直接打败其他所有指标。

老板们不需要等季度末,不需要主观打分,数字就在那里,每秒钟更新,我们用 AI 做了什么,都看得见。

当持续有公司把「AI 使用率」与年终绩效挂钩,奖励那些重度依赖 AI 的员工,并敲打那些 AI 使用较少的员工,事情的性质就彻底变了。

▲据华尔街日报报道,AI 自动化平台制造商 Zapier 推出了一种新型仪表盘,用于跟踪其员工对 AI 的使用情况,其公司 CEO 在 LinkedIn 上回复,说他们最近开始关注公司内部 Token 的使用情况,当发现有人消耗的 Token 是同事的 5 到 10 倍时,这会是一个值得好奇的地方,他们还在摸索。

知名软件工程博主 Gergely Orosz 戳破了这层窗户纸:「在大型科技公司内部,不能以极快的速度使用 AI 正在成为一种职业风险,而根本不管你的产出质量如何。

没错,重点是「使用」,而不是「用好」。当你发现隔壁工位的同事每天能用掉几千万个 Token 时,你唯一的选择就是打开更多的窗口,输入更长的提示词。

有网友说,这很奇怪,就像是衡量快递员的工作效率,不是看他递送了多少包裹,而是看他消耗了多少汽油

听起来很不靠谱,但这件事情确实就这样发生了,而且成为了一种趋势。

在这场由焦虑、胜负欲和绩效考核共同催生的 AI 提效进程中,AI 没能让我们实现每周上三天班的乌托邦,反而逼出了一种最昂贵、也最荒诞的「装忙」艺术。

脑力劳动者也没有护城河了

更深层的变化,在考核方式之外,更多的是工作本身的性质。

一个资深工程师的价值,在于他对系统架构的直觉,对业务逻辑的理解,对复杂问题的判断。这些是他的护城河,其他人学不来,机器替代不了。

现在,这条护城河正在被快速填平。当 AI 能够独立完成架构设计的初稿,自动扫描几百万行代码寻找 bug,把一句模糊的需求变成可以运行的程序,资深工程师的核心竞争力,也开始从「你懂什么」,转成「你怎么驾驭 AI」。

用更专业的术语来说,就是坐在办公室的白领们,正在不可逆地从「业务洞察」,转移到流水线般的工作,反复地「Prompt 调优」和「Agent 调度」。

这个转变有它的合理性。就像工业化之后,一个熟练工人的价值从手工技艺,变成了操控机器的能力,时代在变,技能也该变。

有人也许能做到,给了充分的算力,效率真能来到原来的十倍,但也有大部分人,会认为这样的转变很不合理。

在他们看来,大语言模型实际上有非常大的实际应用价值,但这些所谓的 Token 竞赛,一直分散了人们对其真正用途的注意力,反而将整个人工智能领域变成了炒作和泡沫。

从问你有没有用 AI,到问你 Token 使用效率,从脑力劳动者到算力调度员,这已经不是用一个旧技能换一个新技能,而是整个工作方式的范式迁移。

你以为你在使用 AI,其实是 Token 在使用你

职场评价体系和打工人的身份,都开始被重新定义,但 Tokenmaxxing 更需要警惕的地方,是它引发了前所未有的「算力马拉松」。

资本的逻辑永远是贪婪的。公司给我们配备了顶级的算力,本质上是一种「效率赎买」——用高昂的 API 账单,买断我们远超常理的产出。

在手工敲代码的时代,老板对员工的预期,打个比方说是一天产出 100 行高质量代码,大家相安无事。现在,老板给了 10 倍的算力,他的预期会在一夜之间自动暴涨到 1000 行,甚至是 10000 行。

工具升级必然伴随着预期的超级加倍,而人类永远跑不过算力膨胀的速度

很多年以前,有一部电影叫《时间规划局》,讲的是在未来的世界,人的生命被定格在 25 岁,人类社会抛弃了金钱货币,开始使用时间作为新的流通货币,时间就显示在每个人的手臂上,当时间耗尽,这个人就会死亡。

这种焦虑,某种程度上像电影里的设定,只不过流动的不再是时间,而是 Token。

所谓的用 AI,已经变成我们被 AI 的永动性深深绑架了。我们就像是被很多东西推着,卷入了一场没有终点的算力马拉松,每个人都在咬牙切齿地奔跑,生怕自己因为 Token 消耗不够而被系统优化掉。

旧金山风险投资人 Nikunj Kothari 专门写了一篇文章,来解释这种 Token 焦虑的时代症候群。在那篇文章里,他从硅谷的日常生活切入,描绘了「Token Anxiety」如何彻底摧毁了年轻人的社交和休闲。

为了让 Agent 24 小时运转,科技从业者们放弃了周末狂欢,连看电影、读小说都会产生「算力闲置」的负罪感。

 

 

以前晚餐时的社交开场白通常是「你在做什么项目」,现在那个时代结束了。现在大家见面第一句话是,「你同时在跑几个 Agents?」

Token 焦虑已经比时间焦虑更进一步,公司用 KPI 逼我们卷 Token 的背后,是我们已经把这种焦虑内化了。当没有任何被迫加班的时候,我们也停不下来。

这是今年的新赛博精神病:一旦 Agents 没在消耗 Token,就觉得在虚度光阴。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

林俊旸离职后首发长文:反思千问得失,预判 AI 下半场需要「智能体思维」

作者 李超凡
2026年3月27日 15:00

带队发布 Qwen 3.5 小模型系列、获马斯克公开点赞,20 小时后在社交媒体宣告离职。林俊旸离开阿里的方式,本身就是 2026 年 AI 行业最戏剧性的一幕。

32 岁,阿里最年轻的 P10,一手将千问做到全球下载量超 10 亿次、衍生模型超 20 万款,成为全球开源模型的新王。他的离开源于一次组织架构调整的分歧:

阿里希望将 Qwen 团队按预训练、后训练、视觉、语音等维度水平拆分,与通义实验室其他团队合并;林俊旸则坚信预训练、后训练乃至基础设施团队应该更紧密地垂直整合,而非割裂。这不只是管理风格之争,更是对「怎样才能训出最好的模型」这个根本问题的路线分歧。

离开近一个月后,林俊旸发出了这篇长文。他没有回应任何人事风波,直接亮出了自己对 AI 下一阶段的判断:我们正在从「训练模型」的时代,进入「训练智能体」的时代

这篇文章之所以值得逐字读完,不仅因为写它的人在过去两年亲手操刀了 Qwen 全系列的后训练,更因为林俊旸在文中罕见地复盘了 Qwen3 在「混合思考模式」上的得与失。

以下为 APPSO 对林俊旸的编译:

原文🔗 https://x.com/JustinLin610/status/2037116325210829168

从「推理式思考」到「智能体式思考」

过去两年,彻底改变了我们衡量 AI 模型的方式。

OpenAI 的 o1 证明了一件事:「思考」可以是模型的核心能力,可以专门训练出来、直接交到用户手里。DeepSeek-R1 紧随其后,证明这种「推理式后训练」并非大厂专利,可以在原始实验室之外复现和扩展。用大白话说:o1 是一个被教会了「回答之前先想想」的模型,R1 则是一个开源版的同类选手,跟 o1 打得有来有回。

那个阶段很重要。但 2025 年上半年的行业主旋律,说到底还是在围绕一件事打转:怎么让模型「想」得更多。 让它在推理阶段烧更多算力,用更强的奖励信号训练它,暴露或控制那些额外的「思考过程」。

现在的问题是:然后呢?

我相信答案是智能体式思考。为了行动而思考,一边跟真实环境交互,一边根据世界的反馈不断修正计划。

1. o1 和 R1 的崛起真正教会了我们什么

第一波推理模型教会我们一个朴素的道理:想在大模型上把强化学习跑起来,你得有靠谱的评分标准。

什么叫靠谱?就是答案能判对错、结果能验证、反馈信号足够清晰。数学题有标准答案,代码能跑测试,逻辑推理能验证步骤。这些领域之所以成了强化学习的主战场,就是因为在这里,模型收到的奖励信号远比「让人类标注员觉得这个回答还不错」强得多。换句话说,强化学习终于能优化正确性,终于不用只追求看着像那么回事了。

然后,基础设施的重要性一下子凸显出来了。

一旦你开始训练模型进行更长的推理链条,强化学习就不再是在监督微调上面加个小配件那么简单了,它变成了一个重工业级的系统工程。你需要大规模的模拟推演(rollout)、高吞吐量的答案验证、稳定的策略迭代、高效的采样流程。推理模型的诞生,表面看是算法突破,底下看是基础设施的胜利

OpenAI 把 o1 定义为用强化学习训练的推理产品线;DeepSeek R1 接棒验证了同一方向,同时也展示了推理式强化学习对底层算法和基础设施的要求有多高。

APPSO 划重点: 第一次大转折发生了。行业焦点从「扩展预训练」转向「扩展面向推理的后训练」。模型变强靠的不再是吃更多数据,靠的是在训练后阶段学会「怎么想」。

2. 真正的难题从来不只是「融合思考和指令模式」

2025 年初,我们 Qwen 团队心里有一张很大的蓝图。

理想中的系统长这样:一个模型同时搞定「思考」和「执行」两种模式。你可以手动调节它思考的深度,轻度、中度、深度,就像调空调温度一样。更理想的情况是,模型自己就能判断:这道题简单,直接答;这道题有点难,多想想;这道题极难,调动全部算力来啃。

方向是对的。Qwen3 是当时最清晰的公开尝试之一。 它引入了「混合思考模式」,一个模型家族里同时支持「想了再答」和「直接答」两种行为,还描述了一条四阶段后训练流水线,其中明确包含了在长链推理冷启动和推理强化学习之后的「思考模式融合」步骤。

但融合这件事,说起来一句话,做起来要人命

难在哪?难在数据。

很多人一听「融合思考和指令模式」,脑子里想的都是模型层面的事:一个模型文件能不能同时跑两种模式?一套对话模板能不能在两种风格之间切换?一个推理服务能不能暴露正确的开关?这些确实要解决,但都不是最深的坑。

最深的坑是:两种模式想要的东西,从根儿上就不一样

你想想,一个好的「指令模型」该长什么样?干脆、简洁、格式规范、响应快。企业用户拿它来批量改写文本、打标签、做模板化客服、结构化数据提取,这些场景要的是效率和稳定,不需要深思熟虑。

一个好的「思考模型」呢?恰恰相反。它该在难题上多花时间、维持清晰的推理中间步骤、探索不同的解题路径、保留足够的「思考余量」来确保最终答案的正确性。

这两种性格天然打架。 如果融合的训练数据没有精心设计,出来的模型往往两头不讨好:思考的时候啰嗦、犹豫、不够果断;执行指令的时候又不够利落、不够稳定、比客户真正需要的版本更贵更慢。

说实话,我们在平衡融合与数据质量的过程中,没有把所有事情都做对

在不断修正的过程中,我们也仔细观察了用户到底怎么用这两种模式。结论是明确的:这两种行为画像确实在相互拉扯。

现实很诚实。2025 年晚些时候,在 Qwen3 最初的混合架构之后,我们的 2507 版本还是发布了独立的 Instruct 和 Thinking 版本,包括分开的 30B 和 235B 变体。大量商业客户根本不需要思考模式,他们要的就是高吞吐、低成本、高度可控的指令行为来跑批量任务。对这些客户来说,融合不是福音,是多余的成本。拆开来做,反而让两条线的团队都能更专注地解决各自的问题。

其他实验室走了相反的路:

Anthropic 公开押注集成式路线。Claude 3.7 Sonnet 是一个混合推理模型,用户可以选择普通回复或扩展思考,API 还能设定「思考预算」。Anthropic 直接放话:推理应该是模型的集成能力,不该单独拎出来做一个独立模型。

GLM-4.5 同样定位混合推理,把推理、编程和智能体能力统一到一个模型里。

DeepSeek V3.1 后来也做了类似的事,推出了「Think & Non-Think」混合推理方案。

那么问题来了:谁是对的?

答案不在「融合」还是「分离」这个二选一本身,在于融合是否有机。如果思考模式和指令模式只是尴尬地挤在同一个模型里,像两个性格迥异的人被硬塞进一件衣服,用户体验不会好。

真正成功的融合,需要一道平滑的光谱模型能自如地在不同推理力度之间切换,最好还能自己判断该用多大力气。GPT 风格的 effort control(推理力度控制)指向了这个方向,这是一个关于「花多少算力来想」的连续策略,不是一个「想 / 不想」的二元开关。

APPSO 划重点: 林俊旸罕见地直言 Qwen3 在融合上「没做到完全正确」。核心矛盾其实很好理解:一个追求快准狠的执行者,和一个追求深思熟虑的思考者,硬融到一起,很容易两头都做成半吊子。

3. 为什么 Anthropic 的方向是一种有益的纠偏

Anthropic 在 Claude 3.7 和 Claude 4 上的做法,是一种值得注意的克制。

他们没有大谈模型有多能「想」,把重点放在了:集成推理、用户可控的思考预算、真实世界任务、编程质量,以及后来的关键一步,让模型在思考的过程中就能动手用工具。Claude 3.7 是带可控预算的混合推理模型;Claude 4 更进一步,推理过程和工具使用可以交错进行,边想边干。与此同时,Anthropic 把编程、长时间运行的任务和智能体工作流摆到了最优先的位置。

这里面有一个深刻的洞察:

推理链更长,不等于模型更聪明。 很多时候恰恰相反。一个模型如果对所有问题都用同样冗长的方式来「推理」,说明它根本分不清轻重缓急。它可能正在失败于三件事:该优先处理什么(优先级判断)、该压缩掉什么(信息浓缩)、该在什么时候停止想而开始做(行动决策)。

Anthropic 的做法暗示了一种更有纪律的观点:思考应该为具体的工作目标服务。 如果你要做的是编程,那思考就该帮你导航代码库、规划架构、拆解问题、恢复报错、编排工具调用。如果你要做的是智能体工作流,那思考就该帮你在漫长的执行过程中保持质量,而不是产出一堆令人印象深刻但没有实际行动力的中间长文。

这种「思考必须服务于行动」的理念,指向了一个更宏大的命题:

我们正在从训练模型的时代,进入训练智能体的时代

这句话我们在 Qwen3 的博客里也明确写过。智能体是什么?一个能制定计划、决定何时行动、使用工具、感知环境反馈、修正策略、并在长时间跨度上持续运作的系统。一句话概括它的核心:与真实世界的闭环交互

APPSO 划重点: 长不等于强。Anthropic 的实践提供了一个重要的纠偏信号。思考的价值在于有没有真正服务于最终的行动目标,不在于产出了多少字的推理过程。这是从「炫技式推理」到「实用型思考」的转向。

4.「智能体式思考」到底意味着什么

说了这么多铺垫,现在进入正题。

智能体式思考和推理式思考,优化目标完全不同。

打个比方:推理式思考就像闭卷考试,评判标准是你交卷那一刻答案对不对。模型能不能解出定理、写出证明、产出正确代码、通过基准测试。想得再天花乱坠,最终只看结果。

智能体式思考更像是在真实世界里做一个项目。 评判标准不是某一刻的答案,是你能不能在跟环境不断互动的过程中持续推进、持续解决问题。

核心问题变了。

不再是「模型能想多久?」,变成了:「模型能不能以一种维持有效行动的方式来思考?

这要求模型处理一堆传统推理模型可以绕开的难题:

  • 什么时候该停止思考、开始动手? 想太多会错过行动窗口,想太少会犯错
  • 该调用哪个工具、先后顺序是什么? 这是一个规划和调度问题
  • 怎么消化来自环境的嘈杂、不完整的信息? 真实世界不会给你干净的输入
  • 失败了怎么办? 不能崩溃,得修正计划继续干
  • 怎么在几十轮交互、几十次工具调用之后还保持连贯? 这是长程记忆和一致性的问题

如果用一句话概括:

智能体式思考 = 通过行动来推理的模型。它在做的过程中不断地想。

APPSO 划重点: 推理式思考像闭卷考试,智能体式思考像在真实世界里做项目。前者看最终答案对不对,后者看你能不能在复杂、动态、充满意外的环境里持续推进。这是 AI 能力评价体系的根本性转向。

5. 为什么智能体 RL 的基础设施更难

目标一变,底层的工程全都要跟着变。

经典推理强化学习的那套基础设施,不够用了。

直观地理解一下区别:在推理 RL 里,模型做一道题、给出一个答案、评估器打一个分,整个过程基本上是自包含的,评估器也相对干净。就像在一个封闭的考场里阅卷。

但在智能体 RL 里,模型不是在考场里答题,它活在一个复杂的真实环境中。 工具服务器、浏览器、命令行终端、搜索引擎、模拟器、代码执行沙箱、API 接口、记忆系统、调度框架……模型的策略嵌在这一整套系统里。环境不再是一个站在旁边打分的裁判,它本身就是训练系统的一部分。

这带来了一个新的硬需求:训练和推理必须更干净地解耦。 否则整个系统的吞吐量会崩掉。

举个具体的例子:一个编程智能体生成了一段代码,需要在真实的测试环境里跑一下看结果。这时候,推理端在等执行反馈,干不了别的;训练端在等完成的轨迹数据,也饿着。整条流水线的 GPU 利用率远低于你在经典推理 RL 里的预期。再加上工具响应延迟、环境状态不完全可见、每次交互都会改变环境状态,这些低效会成倍放大。结果就是:你还远没达到想要的能力水平,实验就已经慢得让人崩溃了。

环境本身也变成了一等公民级的研究课题

在监督微调(SFT)时代,所有人都在拼数据多样性,谁有更多更好的标注数据,谁就占优势。在智能体时代,该拼的是环境质量了:环境稳不稳定?够不够真实?覆盖了多少场景?难度梯度合不合理?状态空间够不够丰富?反馈信号够不够有营养?模型能不能找到漏洞作弊?大规模生成训练轨迹的效率够不够高?

环境构建正在从一个「顺手搭的实验配件」,变成一个独立的创业赛道。如果你训练的智能体最终要在类生产环境中运作,那这个环境本身就是你核心能力栈的一部分。

APPSO 划重点: 一句话总结这个转变,SFT 时代拼数据,智能体时代拼环境。构建高质量的训练环境,正在从「实验室的脏活累活」升级为「决定你能走多远的战略资产」。

6. 下一个前沿是更可用的思考

我的判断是:智能体式思考将成为思考的主导形态

它最终很可能取代那种旧式的静态独白推理,就是那种模型关起门来、对着自己嘟嘟囔囔写一大篇内部推理过程,试图用更多更多的文字来弥补「我没法跟外界交互」这个根本缺陷的做法。

即便面对极其困难的数学或编程问题,一个真正先进的系统也应该有权利去搜索、去模拟、去执行、去检查、去验证、去修正。目标是把问题切实解决掉,而且解决得稳健、高效。 不是比谁的推理链写得更长更好看。

但训练这类系统,有一个比什么都棘手的挑战:奖励劫持(reward hacking)

一旦模型有了真正有意义的工具使用能力,奖励劫持的危险就成倍增加。怎么理解?

  • 一个能搜索的模型,可能在强化学习训练过程中学会了直接搜答案,不是靠推理做出来的,是查到的。
  •  一个编程智能体,可能学会了利用代码仓库里的未来信息(比如测试用例本身就暗含了答案)、滥用日志、或者发现某个捷径让任务直接「通过」但其实什么都没做。
  • 如果训练环境有隐藏的信息泄漏,模型可能看起来表现超人,实际上只是被训练成了一个高效作弊者。

这就是智能体时代比推理时代精细得多、也危险得多的地方。 工具越强大,模型越有用,但模型能钻的空子也越多。更好的工具同时扩大了「虚假优化」的攻击面。

我预期,下一个让整个行业卡住的研究瓶颈,将来自这几个方向:环境设计、评估器鲁棒性、反作弊协议、以及策略与世界之间更有原则的接口。

但方向是清晰的:工具赋能的思考,就是比闭门造车的思考更有用,也更有希望带来真实世界的生产力提升。

智能体式思考还意味着一种全新的系统工程。核心智能将越来越多地来自于多个智能体如何被组织起来:一个负责全局规划和任务分发的编排器(orchestrator),一群各有专长的专业智能体(specialist agents),以及执行更具体任务的子智能体(sub-agents),后者帮助控制上下文窗口、防止信息污染、在不同层级的推理之间保持清晰的边界。

未来的路线图是三级跳:从训练模型,到训练智能体,再到训练系统

APPSO 划重点: 工具让模型更有用,也让模型更容易作弊。奖励劫持是智能体时代的「定时炸弹」。谁先解决好环境设计和反作弊问题,谁就掌握了下一阶段的竞争主动权。

结论

推理浪潮的第一阶段,确立了一件至关重要的事:当反馈信号靠谱、基础设施扛得住的时候,大模型上的强化学习能够产出质变级别的认知提升。

但更深层的转变,是从推理式思考到智能体式思考:从「想更久」,到「为了行动而思考」

训练的核心对象已经变了。不再是单一的模型,是模型 + 环境构成的整个系统。更具体地说,是智能体本身,加上围绕它的一切工程。这意味着什么研究最重要也变了:模型架构和训练数据当然还重要,但环境设计、rollout 基础设施、评估器鲁棒性、以及多个智能体之间的协调接口,重要性一点不输前者。

它还改变了「好的思考」的定义:在真实世界的约束下,能够维持有效行动的那条推理链,才是最好的。 不是最长的那条,不是看起来最酷炫的那条,是最有用的那条。

它也改变了竞争优势的来源:

推理时代,拼的是更好的强化学习算法、更强的反馈信号、更可扩展的训练流水线。

智能体时代,拼的是更好的训练环境、更紧密的训练与推理一体化、更强的系统工程能力,以及闭合「决策 → 后果 → 学习」这个循环的能力。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌
❌