阅读视图

发现新文章,点击刷新页面。

刚刚,阿里ATH事业群甩出王炸「悟空」!企业级正规军下场,龙虾们这次真要炸了

昨晚,阿里巴巴突然宣布成立 Alibaba Token Hub(ATH)事业群,CEO 吴泳铭直接负责,这可能是阿里在 AI 时代最重要的一次组织架构调整。

Token ,AI 时代的通用货币。

吴泳铭的逻辑是:未来大量数字化工作将由「数以百亿计的 AI Agent」支撑运行,而这些 Agent 的运行,由模型产生的 Token 驱动。

创造 Token、输送 Token、应用 Token,这将是阿里新的的主线。

其中内部信中还有一个首次出现在公众视野里的名字:悟空事业部。官方对悟空事业部的定位是:「打造 B 端 AI 原生工作平台,将模型能力深度融入企业工作流。」

也就是说原来的钉钉,被提到了一个更核心的战略位置,和千问一起分别在 B 端和 C 端承载阿里 AI 的目标。

这次发布会,悟空事业部交出了成立以来的第一份作业—— AI toB 旗舰应用「悟空 WuKong」,这也是首个以企业智能体为核心的 AI 原生工作平台。

这是ATH 事业群成立第二天,阿里巴巴集团 CEO 吴泳铭也出现在今天的「悟空」发布会现场。

最近在「养龙虾」席卷社交媒体后,每个人或多或少都感受到发现 AI 真的能操控电脑、帮你干活。

然而也便随这混乱,龙虾删邮件停不下来,敏感数据被 AI 随意读取,公司 IT 部门一句「这东西不合规」,大多数企业用户就此止步。

AI Agent 走到了哪一步,能不能广泛使用,还只是个技术问题。企业组织敢不敢用,才是真正的问题

APPSO 在现场给大家快速梳理了这场发布会的要点:

  • 悟空 WuKong:全球首个以企业智能体为核心、更安全、商业可交付的 AI 原生工作平台
  • 首创 AI 原生文件系统 Real Doc:每一步操作可追溯可回退
  • 钉钉全面 CLI 化:重写底层代码,给 AI 造了一套原生操作语言,可以 CLI 原生安全地访问钉钉应用和数据
  • 十大 OPT 行业方案:一人电商、一人门店、一人知识博主……Skill 即生产力
  • AI 能力市场:企业级 Skill 生态完整体系上线,全部纳入统一的安全扫描和分级管控体系
  • AI 硬件:A1 Pro 录音卡 + Cleer H1 AI 耳机首亮相
  • 原生级企业安全架构:底层沙箱隔离与全链路审计,让企业真正敢用 AI

钉钉为 AI 打造钉钉

在理解悟空之前,先要消除一个刻板印象,它绝对不是「钉钉加了一个 AI 对话框」。这句话值得重复一遍——悟空不是钉钉加了一个 AI 功能

过去两年,我们见过太多「产品加 AI」的案例:Word 加了 Copilot,微信加了元宝,网页端加了摘要按钮。这类产品的逻辑是:原有功能不动,AI 作为辅助层叠加在上面,帮你写写文字、润色润色、总结一下。

悟空的逻辑完全不同。

悟空是一个以企业智能体为核心的 AI 原生工作平台。 它能操作我们的电脑、编辑本地文件、调用桌面应用程序、连接钉钉文档 / 审批 / 日程 / 听记等全系产品。

当你对悟空说:「帮我把上周所有客户拜访的记录整理成周报,发给张总确认一下」。

悟空不会给你写一份模板然后让你自己填,它会直接打开你电脑上的拜访记录文件夹,读取每一份记录,生成周报,保存到指定位置,然后在钉钉里发给张总发起审批。

全程,你只说了一句话。

更关键的是:手机可以远程指挥悟空唤起本地环境完成工作。不需要坐在电脑前。出门见客户的路上,发一条消息,悟空在家帮你把活干完。

这是「本地执行 + 远程可控」的 Agent 工作架构,也是悟空正在定义的新工作方式——说一句话,就能干活。

▲体验网址:https://www.dingtalk.com/wukong

悟空与 OpenClaw:解同一道题,用的是不同答卷

很多人的第一反应:这不就是「中国版 OpenClaw」吗?

表面看都在让 AI 操作电脑,但两者的关系,更接近「Linux 的开源社区」和「Red Hat 企业版」,底层技术同源兼容,但面向的战场完全不同。

OpenClaw 证明了 AI Agent 可以操控电脑这个概念,它依赖「视觉模拟」和操作系统原生命令行,让 AI 像人一样看屏幕、点鼠标。这套方案很酷,但也很脆弱,毕竟界面一更新,命令一修改,整个流程就可能崩掉。

更要命的是,OpenClaw 在本地运行时,几乎拥有与用户完全相同的系统权限。理论上,一台实习生电脑上的 OpenClaw,可以读取他不该看到的任何数据。安全机构已发现其技能市场存在数百个恶意程序,Gartner 将其企业部署评级为「不可接受的网络安全风险」。

OpenClaw 是 Agent 的「Linux 时刻」——开源、自由、极客驱动、生态繁荣,但没有企业敢直接用。

悟空要解的题不一样:兼容开源生态的全部 Skill 能力,同时从架构层面把安全内建进去,而非事后打补丁。

统一企业身份认证、专属沙箱隔离、网络代理管控、全链路审计日志——每一层安全都在回答同一个问题:让 IT 部门敢拍板,让 CEO 敢买单

这是 Enterprise Agent 和「开源 Agent 框架」的本质差距。

钉钉 CEO 无招在发布会现场表示,「今天,我们把钉钉打碎,用 AI 重建,炼出悟空。过去是人用钉钉来工作,未来是 AI 用钉钉来工作。和市面上所有的龙虾 Agent 不一样,悟空天然就长在企业组织中,可以在真实的企业环境中安全使用。

CLI 化:给 AI 造一套原生操作语言

要理解悟空为什么「真的能干活」,关键是它有一套让 AI 能「听懂」软件的语言。

过去,几乎所有的 AI Agent 都在试图模拟人类的键鼠操作。这就像是蒙着眼睛,靠别人在旁边喊「往左一点,点击」来用电脑,不仅极度低效,而且极其容易出错。

为了让悟空真正能「干活」,钉钉做了一个相当疯狂的决定:所有底层代码重写了一遍

他们将整个钉钉的既有能力体系全面 CLI 化(Command-line Interface,命令行界面),所谓 CLI 化,就是把钉钉从一个「给人用的图形界面」,变成一个「给 AI 用的命令行接口」。

AI 不再需要「看懂」按钮在哪里,而是直接通过标准化指令调用能力,这相当于给 AI 装上了神经末梢

其中,包括文档、日程、审批、会议甚至 AI 表格,所有的钉钉产品,全部重写为标准的 CLI 指令。

这意味着,悟空不再需要像人类一样去「点击」按钮,而是通过原生指令,直接调用钉钉的一切能力和数据。

不仅是钉钉应用,阿里集团旗下的淘宝、天猫、支付宝、阿里云等核心业务能力,也将逐步作为 Skill 接入悟空。悟空,正在成为整个阿里巴巴 AI 能力在企业工作场景的统一出口。

当用户说「帮我整理下周的客户拜访记录并生成周报」,悟空不是「看懂」这句话,而是直接触发一系列 CLI 指令:调取日程 API → 抓取 CRM 数据 → 运行听记解析 → 写入文档 → 发起审批流。全程没有模拟点击,没有视觉识别,只有机器对机器的精准调用。

这个逻辑,在行业报告「未来属于智能体:万亿 AI 正在重新定义软件」里有一段话说得非常准确:

你构建的一切都必须是 API 优先的。如果一个功能没有 API,它就相当于不存在。如果不能通过 CLI 或 MCP 服务器暴露,你就是处于劣势。

换言之:在 AI 智能体成为软件「主要用户」的时代,不能被 AI 原生调用的软件,等于不存在

▲图片来源:X@karpathy

钉钉理解了这个逻辑,所以选择了极其昂贵的方式——重写服务全球 8 亿用户、2700 万家企业的产品底层。钉钉全面 CLI 化之后,Agent 才能从「能聊天」变成「能干活」。

Realdoc,AI 终于有了原生的文件操作语言

但 CLI 化只解决了「AI 能不能调用钉钉」的问题。还有一个更底层、常被忽视的问题——AI 怎么操作文件

目前市面上几乎没有 AI Agent 产品专门为 AI 设计过文件系统。所有人都在用传统文件系统凑合,结果是什么?

AI 要改一份文档里的一个词,必须先把整篇文档读进内存,改完再整篇写回去。就像改一本书里的一个错别字,却要把整本书重新抄一遍——荒诞,但这就是现实。

这带来三个连锁问题。

第一是 Token 爆炸,每次操作都吞进整篇文档,成本直线飙升,有用户实测用 AI 制作一个 PPT,消耗了 2.7 亿 Token,约合 500 美元。

第二是无法回退,AI 覆盖写入即生效,改坏了没有存档可以回溯,只能从头再来;

最后是文件失控,Agent 随机创建文件,企业根本不知道 AI 在哪里生成了什么,散落的结果是既找不到,也管不住。

悟空为此专门从零搭建了一套 AI 原生文件系统 Realdoc,这是行业首次,有人专门为 AI 重新设计一套文件操作语言

在 Real Doc 里,悟空可以像外科医生一样,按行号、按关键词定位,只动需要动的地方,其他内容一字不碰。Token 消耗大幅压缩,不再因为改一个词而把整篇文档走一遍。

更关键的是版本管理。AI 每执行一步操作,Realdoc 自动保存完整快照——就像游戏里的自动存档点,每一步操作都有记录,可随时退回任意版本,还能自动对比两个快照之间的 Diff,精确到每一行的变动。

还有文件归宿的问题。Realdoc 为每个 AI Agent 分配独立的云端工作空间,AI 产出的每一份文件都有「户口」——存在哪里、谁创建的、哪个 Agent 在什么时候改过,企业管理者一目了然。

到这里,悟空做出了大多数企业级产品还没意识到的改变:不再让 AI 套用到现有工具中,要为 AI 重新造一套工具

悟空首发 十个 OPT Skills 套件,钉钉原生协同

如果说 CLI 化解决了「AI 如何干活」,那么接下来的问题是:AI 该干哪些活,谁来告诉它怎么干

答案是:Skill。

Skill 是悟空的最小生产力单元——一个封装了行业专家 SOP、可直接调用的能力模块。我们不需要懂 AI,不需要写 Prompt,一键启用,AI 团队立刻就位。

这不是一个新概念,但悟空把它推向了一个全新的量级。

悟空首批推出十大行业 OPT(One Person Team,一人团队)技能套件,覆盖一人电商、跨境电商、知识类博主、开发、门店、设计、制造、法律、财税、猎头十大场景。每个行业包预置了若干串联 Skill,把过去需要团队协作才能完成的工作流,压缩成一个人可以独立驾驭的操作序列。

以跨境电商为例。过去,一个店主每天要在亚马逊上找爆款,去 1688 上比价,跟供应商确认库存,再想破头优化商品描述,一个人能管三个品就是极限。

现在接入悟空 OPT 方案后,「选品雷达」每天定时抓取亚马逊热榜数据写入 AI 表格;发现爆款后,「AI 找同款」瞬间完成国内供应链匹配;直接确认样品、生成产品描述、输出视频脚本,都有行业级的 Skills 辅助。从发现需求到供应链跟进,一个人用一个下午,干完了一个小团队一周的活。

「一人门店」的场景更让人感慨。街边的汽修店、美甲店老板,白天忙服务,晚上还要强打精神刷小红书学竞品写文案。现在,同样是多个 Skill 串联,AI 自动监控同行爆款,提炼出可复用的创作模板,自动生成原生网感文案并发布,甚至能 7×24 小时智能回复客户私信。

「当一个店主用 AI 运营账号的质量,比竞争对手请的代运营公司还好时——这件事就不只是效率提升了。这是小微门店生存逻辑的重写。」

这正是 Skill 即生产力的核心逻辑:把行业专家的隐性经验,变成人人可调用的标准化能力。Skill 不只是提高效率,它在重新分配能力——让不具备专业背景的人,也能获得专业级的产出。

这个逻辑的更大野心,体现在钉钉同步上线的 AI 能力市场

Anthropic 推出 Claude Skills 开放标准后,微软、OpenAI、Cursor 等巨头迅速跟进。行业共识正在形成:下一阶段的竞争,不是「谁的模型更强」,而是「谁的 Skill 生态更完整」

钉钉 AI 能力市场覆盖 Skill、Agent、Service 完整体系,从开发、审核、上架、分发到管理,全链路打通。

企业可以把资深员工的方法论固化成私有 Skill,彻底摆脱人才流失的阵痛;开源社区里数千个现成的能力,也能在企业级安全架构下被随时调用。

这是悟空最有想象力的部分,它在搭建 AI 时代的生产力基础设施——Skill 是这套基础设施里流通的「货币」,谁掌握更多高质量的 Skill,谁就掌握了 AI 时代更大的生产力。

AI 新硬件

除了软件,在这场发布会上,钉钉还发布了多款 AI 硬件。

DingTalk A1 Pro:录音卡形态,专为会议和工作场景设计,支持多麦克风阵列拾音,AI 实时转录、翻译、摘要,把「开完会还要整理纪要」的低效循环彻底斩断。

Cleer H1 AI 耳机:钉钉与 Cleer 联名推出,首款与悟空深度联动的 AI 耳机。戴上耳机,语音即可直接与悟空对话下达指令,无需打开屏幕,从而实现真正的「所想即所达」。

更值得关注的是 Real AI 硬件(Realbox):搭载 1 台 PC 环境 + 5 台手机环境,支持多人共用、多并发任务处理。企业部署一台 Realbox,可以同时为多个员工运行多个悟空实例;部署多台 Realbox,可构建 AI 计算机集群,任务并行处理,弹性扩展。

不难看出,钉钉这些 AI 硬件并不是独立存在市面上的同类产品抢夺市场,核心都是为了更好地打通 AI 工作流,成为软硬一体的 AI 原生工作平台。

OpenClaw 跑在一台电脑上,做一台电脑能做的事;悟空搭载 Realbox 集群,正式宣告:AI 算力,可以像水电一样,以基础设施的形式在企业内部流通了

AI 时代的组织生产力

在观看这场发布会时, 我想起前段时间 Sam Altman 在采访中提到的观点:「历史上第一家由一个人独立运营的十亿美元公司,即将出现。」

彼时龙虾还没火爆,一人团队(OPT)的概念也只是在 AI 圈子里。他没有解释这个人会用什么工具,会在哪里,会干哪个行业。但看完这场发布会,这句话变得具体了一些。

这个人,大概率会有一套像悟空这样的东西在身边。过去十一年,钉钉一直在让人学会用工具。悟空想做的,是逐渐让工具真正学会理解人。

当工具开始理解人,一件以前不可能的事情正在变得可能:组织生产力,第一次可以真正被数字化封装、分发和扩展。当 Skill 把行业专家的经验变成人人可调用的能力货币,当 AI 原生平台成为个体接入组织能力的操作系统,一个人或组织能做的事情的边界,将被彻底重新定义。

Sam Altman 看到的是「一人公司」这个终点,悟空要做的,是让更多普通人有机会走到那条路上。它不是专门为天才准备的工具,而是为所有「想做更多但苦于一个人精力有限」的人,提供一套 AI 时代的组织生产力基础设施。

AI 原生工作平台,正在成为这个时代最关键的组织变量。 谁先跑通它,谁就先拿到了超级个体时代的入场券。

之前有一个观点,燃烧 Token 的速度,决定了人的进化速度。而悟空的 1.0 版本,指向的就是人和组织进化的下一个版本。

文|李超凡

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

Arm 首推自有品牌 AGI CPU 晶片 攜手 Meta 搶攻代理式 AI 伺服器商機

Arm 歷史性地推出首款自主設計的實體矽晶片產品「Arm AGI CPU」,採用台積電 3nm 製程,搭載 136 個核心,效能較 x86 平台高出兩倍以上,並由 Meta 作為首發共同開發夥伴。

在過去三十多年裡,Arm一直以提供IP矽智財與運算子系統 (CSS)授權為核心商業模式,但這項傳統在今日 (3/24)正式被打破。Arm歷史性地宣布推出首款由官方親自操刀設計,並且投入量產的實體矽晶片產品——「Arm AGI CPU」。這款專為AI資料中心量身打造的處理器,將劍指近期快速崛起的「代理式AI」 (Agentic AI)基礎設施需求,更由Meta作為首發共同開發夥伴。憑藉台積電3nm製程加持,Arm AGI CPU標榜能提供比傳統x86平台高出兩倍以上的機架運算效能。

打破IP授權框架:為何Arm決定親自跳下來做晶片?

早在先前有不少傳聞時,Arm執行長Rene Haas在去年就已經證實將推出自有品牌晶片,並且在此次活動上正式揭曉。而要理解Arm為何跨出這歷史性的一步,必須先看懂「代理式AI」帶來的基礎設施變革。

Rene Haas在聲明中表示,AI已經徹底重新定義運算的建構與佈署方式。過去的AI基礎設施高度集中在GPU的「模型訓練」上;但隨著AI應用轉向佈署持續運行的「AI代理」 (AI Agents)時,這些系統需要不斷地進行推理、規劃、協調與資料搬移,導致AI系統生成的Token數量呈指數級增長。

根據預估,當企業大規模導入代理驅動的應用時,每GW (吉瓦)電力所需的CPU數量將暴增超過4倍。但在功耗限制下,傳統x86處理器的複雜架構與高能耗已經難以負荷。

因此為了協助合作夥伴加快佈署AI代理速度,Arm決定打破過往僅提供IP或CSS (運算子系統)的「慣例」,直接推出自有品牌實體晶片,為市場提供更具彈性且直接的硬體選擇。

136核心與台積電3nm加持:效能直逼x86架構的兩倍

作為首發之作,Arm AGI CPU在硬體規格與能效表現上展現極強的企圖心:

• 頂尖核心與頻寬:單顆CPU搭載高達136個Arm Neoverse V3核心,並且提供每核心6GB/s的記憶體頻寬與低於100ns的延遲表現。

• 極致能效 (TDP):功耗控制在300瓦 (TDP),同時每個程式執行緒均配置專屬核心,確保在持續高負載下提供決定性的效能,消除降頻與閒置執行的浪費。

• 超高機架密度:支援高密度1U伺服器機架。在氣冷佈署模式下,每組機架可容納高達8160個CPU核心;若採用液冷系統設計,則能推升至每機架對應超過45000個CPU核心。

這款晶片交由台積電以其先進的3nm製程代工製造。Arm強調,AGI CPU每機架效能是傳統x86架構CPU的2倍以上,這意味著在每吉瓦的AI資料中心建置中,將能為企業省下高達100億美元的資本支出。

科技巨頭齊聲力挺,Meta成為首發聯合開發夥伴

Arm這次親自跳下來做晶片,並未引發原有IP客戶的強烈反彈,反而獲得業界極度廣泛的支持。

Meta更成為該晶片的首發合作夥伴與共同開發者。Meta基礎設施主管Santosh Janardhan表示,Meta將利用Arm AGI CPU來優化其應用程式家族的基礎設施,並且將其與Meta自研的AI加速晶片「MTIA」協同運作,藉此實現在大規模AI系統中更有效率的運算調度,而雙方也承諾將在未來多個世代的產品路線圖中持續深入合作。

除了Meta,包含OpenAI、Cerebras、Cloudflare、SAP與SK Telecom在內的多家企業也均確認將導入此晶片,用於加速器管理、控制平面處理,以及雲端API託管等核心任務。

而在硬體系統端,Arm已經與華擎 (ASRock Rack)、聯想 (Lenovo)、廣達 (Quanta Computer)及Supermicro等OEM及ODM 廠展開合作,預計今年下半年將有更多系統投入市場。

此外,包含AWS、Google、微軟、NVIDIA (執行長黃仁勳亦對此發表祝賀),以及三星、SK 海力士 (SK hynix)等超過50家科技巨頭,也都對Arm擴展至晶片產品線表達大力支持。

分析觀點

外界最初擔憂,Arm自己賣晶片是否會與AWS、Google或微軟這些已經利用Arm架構自行開發自有設計CPU的大客戶產生利益衝突?

從結果來看,Arm將AGI CPU的定位精準切入「代理式AI」這個新興且需才孔急的特殊領域。對於像Meta或OpenAI這樣需要海量CPU來搭配自家AI加速器,卻又不見得想投入龐大資源去「從零設計通用CPU」的廠商來說,直接購買現成、已經將Neoverse V3效能榨到極限的Arm AGI CPU,是最具成本效益的做法。

同時,這也是Arm針對x86陣營 (Intel與AMD)在資料中心領域發起的一場「絕殺」。當僅有300W熱設計功耗的Arm晶片能透過台積電3nm製程,在相同機架與電力限制下塞入136個核心,並且提供兩倍於x86架構CPU的效能時,x86架構在AI時代「功耗比過高」的致命傷將被進一步放大,同時也象徵資料中心的運算主力,正無可避免地向 ARM 架構全面傾斜。

Arm AGI CPU 單機架容納 4.5 萬核心 高密度架構對抗 x86 代理式 AI 算力瓶頸

Arm 首款自製晶片 AGI CPU 正式亮相技術細節,採用液冷 200kW 極端配置可容納 336 顆處理器,單機架核心數突破 4.5 萬組,效能是 x86 架構系統兩倍以上。

接續揭曉跨足實體晶片製造的消息後,Arm雲端AI事業部執行副總裁Mohamed Awad隨
後針對此款處理器進一步說明技術解析。這款名為「Arm AGI CPU」的全新處理器,是基於Arm Neoverse平台所打造的量產級產品,主要為了解決「代理式AI」時代下,CPU成為資料中心協調運算過程中的「瓶頸」問題。

為此,Arm徹底重新設計伺服器的參考架構,透過極致的機架密度與多執行緒效能,標榜能提供x86架構系統兩倍以上的單機架效能,並且宣告AI雲端基礎設施正式進入「Arm原生」的全新發展。

代理式AI的崛起:為何CPU成為算力瓶頸?

Mohamed Awad解釋,過去運算的瓶頸在於「人類」——人類輸入指令的速度,決定系統運作的執行節奏。但在「代理式AI」時代,這個限制消失了,軟體代理會以24小時不間斷地自主協調任務,並且與多個大型語言模型進行互動,接著做出即時決策。

但在這種持續運作且極度複雜的環境中,CPU的角色發生質變,不再只是GPU的配角,而是必須同時管理數以千計的分散式任務、調度加速器、管理記憶體與儲存,甚至處理海量AI代理之間的「扇出」 (fan-out)協調任務。而當負載呈指數級飆升,傳統x86架構CPU在持續高負載下,往往會出現核心爭用與效能衰退等問題,而這正是Arm決定親自下場打造AGI CPU的核心原因。

為「機架級」效率而生:單機架最高容納45000組核心

為了解決這個痛點,Arm AGI CPU從運作時脈、記憶體到I/O架構,全都是為了支援「高密度機架佈署」與「大規模平行運算」而量身訂做。

Arm官方釋出了極度暴力的硬體參考配置:

• 1OU雙節點設計:這是Arm提出的標準氣冷伺服器參考架構。每個刀鋒伺服器 (Blade)包含兩個節點,配置兩顆AGI CPU、專屬記憶體與I/O埠,在單一刀鋒伺服器即可提供272組運算核心。

• 氣冷36kW機架:一個標準的36kW氣冷機架系統則可塞滿30個上述刀鋒伺服器,總計提供高達8160個CPU核心。

• 液冷200kW巨獸:Arm更與Supermicro合作,設計支援200kW液冷的極端配置,單一機架可容納336顆Arm AGI CPU,總核心數更能突破驚人的45000個。

Mohamed Awad強調,這套架構能提供超越最新x86架構系統兩倍以上的機架運算效能。其關鍵在於Arm Neoverse V3核心的「單執行緒」 (single-threaded)效能與更高記憶體頻寬表現,確保每一個執行緒都能完成更多工作,並且不會像x86架構設計在滿載時可能發生效能崩潰。

不僅是賣晶片,更要定義硬體標準

值得注意的是,Arm這次不僅僅是推出晶片,更是打算直接定義下一代伺服器的硬體標準。

為了加速生態系採用,Arm宣布推出符合開放運算計畫 (OCP)DC-MHS標準尺寸的「Arm AGI CPU 1OU雙節點參考伺服器」。Arm計畫將這套伺服器設計、支援的韌體、系統架構規格、除錯框架及診斷工具,全數貢獻給OCP開放運算社群。

目前,這款晶片已經獲得包含Meta、OpenAI、Cerebras、Cloudflare等業界巨頭的採用承諾,而合作夥伴華擎、聯想與Supermicro已經開始接受商業系統的訂單。

分析觀點

從技術解析可以看出,Arm AGI CPU是一頭徹頭徹尾的「效能怪物」,而其更直接瞄準傳統x86架構資料中心機架弱項。

Arm並未選擇在單顆CPU的絕對算力上與x86競爭,而是利用Arm架構的「高能效比」與「高核心密度」,直接將戰場拉高到「機架級別」 (Rack-scale)。

當雲端服務商在評估資料中心建置時,他們看重的是「在這個36kW的機櫃限制下,能塞進多少算力?」。在這一點上,單機櫃能提供8000組CPU核心,甚至多達4.5萬個不降頻的的Arm架構CPU核心,對比受限於發熱與功耗的x86架構系統,具備更高優勢。

更深層的意義在於,Arm正在收編那些無力自行開發CPU,卻又急需高效能協調器的AI新創與雲端業者 (如OpenAI、Cerebras)。透過直接提供量產晶片與OCP開放運算硬體設計,Arm等同於為整個AI產業鋪好了一條名為「Neoverse」的高速公路。

這不僅是Arm商業模式的重大轉型,更是x86陣營接下來在AI伺服器市場面臨的最嚴峻挑戰。

❌