阅读视图

发现新文章,点击刷新页面。

Arm攜手Meta跨足實體晶片推出Arm AGI資料中心CPU,Cloudflare、OpenAI、SAP與SK Telecom也將採用

Arm在創立的35年以來都是作為提供晶片相關IP、運算子系統的供應商,並未跨足實體晶片業務;然而Arm於舊金山的Arm Everywhere event活動宣布首次跨足實體晶片,針對新一代AI基礎設施需求以Neoverse V3架構結合先進高速通道,滿足代理式AI基礎設施所需;Arm表示透過Arm AGI CPU的推出,使Arm客戶可提供自客製化晶片到整合平台方案再到部署Arm設計的處理器等豐富的選擇,生態夥伴可自因應需求選擇合宜的解決方案。

▲Arm打破35年以來未涉及實體晶片業務的傳統,攜手Meta推出首款實體處理器產品Arm AGI CPU
▲OpenAI也宣布將採用Arm AGI CPU

雖然Arm AGI CPU為Arm第一款實體晶片產品,然而在延續Neoverse運算基礎,並獲得超過50家超大規模、雲端運算、晶片、記憶體、網路、軟體、系統設計與製造等跨領域生態夥伴支持。其中Meta不僅作為Arm AGI CPU的共同合作夥伴,也是主要客戶,此外包括erebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP以及SK Telecom等也與Arm簽署合約,同時永擎、聯想、廣達與Supermicro皆做為系統商開始接受搭載Arm AGI CPU的系統訂單。

攜手Meta共同開發

▲Arm現在與客戶的合作模式自各領域IP、子系統跨足到實體晶片

Arm AGI CPU是Arm與Meta共同開發,透過Arm AGI CPU針對新一代資料中心需求量身打造的設計,並與Meta自研的Meta Training and Inference Accelerator (MTIA))晶片協同作業,可在大規模AI系統獲得更高效率的排程。此外Arm也提到後續的產品也將持續開發,力求在效能、擴展與效率實現一流的水準,同時也將持續推進Arm Neoverse CSS產品路線,確保以不同方式與Arm合作的資料中心客戶都能持續在平台架構與軟體相容攜手並進。

▲Arm為Arm AGI CPU規劃符合OCP標準的1OU雙節點伺服器參考設計

Arm也為了加速Arm伺服器普及Arm伺服器CPU普及,Arm不僅規劃符合開放運算專案(OCP)與Arm System Ready規範的1OU雙節點參考設計,也將貢獻1OU雙節點參考設計伺服器的設計、配套韌體以及像是系統架構規範、框架與適用於基於Arm架構系統的診斷與驗證工具。

為大規模機架級代理式AI所設計的Arm AGI CPU

▲Arm AGI CPU基於136個Neoverse V3核心,並具備先進I/O與支援高時脈記憶體
▲依照Arm的形象圖,Arm AGI CPU應該是類似Grace CPU Superchip的雙晶粒封裝產品

Arm AGI CPU是為新一波AI革新的代理式AI工作負載所需的大規模機架型系統所規劃,旨在能夠並行處理數千個核心,以單一核心單執行緒滿足在長時間高負載下維持峰值性能;每個Arm AGI CPU基於3nm製程,為300W TDP,具有136個3.7GHz的Arm Neoverse V3核心,每個核心具備2MB的L2快取,同時具有96條PCIe Gen 6與支援CXL 3.0以利於記憶體擴展,還有適用於未來晶片與加速器架構的AMBA CHI擴展,此外具有6GB的記憶體頻寬、每個晶片達最高6TB的容量與低於100ns的記憶體延遲,並支援最高DDR5-8800記憶體。

▲標準36kW風冷機架可容納30組10OU刀鋒伺服器,達到8,160個CPU核心

依據Arm所展示的10OU雙節點設計,每個刀鋒伺服器包含2個Arm AGI CPU,每個晶片都有專用的記憶體與I/O控制,使單一刀鋒伺服器具備272個核心與高達12條64GB DDR5記憶體,並以一個標準36kW風冷機架裝載達30個刀鋒伺服器,可提供共8,160個核心;此外Arm還與Supermicro共同開發200kW液冷設計,可容量336個Arm AGI CPU與提供高達45,000個CPU。

▲Arm強調Arm AGI CPU相對x86更具擴展性與能源效率
▲強調Neoverse V3架構延續Arm出色的每瓦效能比

Arm強調在其參考設計下,Arm AGI CPU的每個機架性能對比x86高出2倍,每GW AI資料中心可減少100億美金的資本支出,同時相對x86伺服器受限核心互搶記憶體影響持續效能,Arm AGI CPU更高的記憶體頻寬有助使每個機架執行更多有效執行緒,同時作為基礎的Arm Neoverse V3亦具有相對傳統x86更出色的單執行緒能耗效能表現。

從背後食材供應商、賣調理包走向開代課調理餐廳

筆者以往在描述Arm的業務時,經常把Arm以往提供IP服務的模式敘述為一家食材供應商,客戶需要把這些食材自行烹調才能成為一道菜,但客戶可依據Arm給予的標準食譜或自行調理;當Arm進一步推出運算子系統產品,筆者認為運算子系統則像是調理包,以更速成的方式讓客戶可以快速上菜,但也可以自己幫調理包的成品加菜點綴。

而這次宣布與Meta合作推出Arm AGI CPU,更像是為客戶提供代客料理服務的餐廳,作為食材供應商的Arm依據Meta的需求,以手中的資源與知識,為Meta客製化完成一道Meta所需要的料理。

▲雖然本質上更像是Meta委託Arm為其設計客製化CPU,但Arm選擇以「首次跨足實體晶片」的宣傳方式恐怕與Arm現在脫離軟銀成為獨立上市公司有關

如果以筆者個人的想法,Arm雖然檯面上是宣布跨足實體晶片業務,但本質上則是為大型客戶提供客製化晶片設計服務,同時把這些產品擴展大型客戶的生態系夥伴;筆者認為Arm此舉除了Meta以外,像是AWS、微軟、Google等直接使用Neoverse CPU IP設計自主處理器的客戶,很有可能進一步轉向此模式與Arm合作打造客製化CPU甚至XPU。

但不同於單純的設計代工業務,Arm並未藏於Meta的招牌下,反而使自己的招牌擺在Meta之前,恐怕與Arm已經成為一家獨立上市公司有關,除了提供新型態的業務服務外,Arm也希冀讓Arm品牌登上實體檯面獲得更多目光的焦點。

OpenAI宣布將終止Sora影片生成服務,Disney立即中斷IP合作與10億美金投資計畫

於2024年由OpenAI推出的影片生成服務Sora被視為有望顛覆影片創作產業的重要內容生成服務,而且也甫在2025年底擴大服務地區到亞洲市場;然而OpenAI在無預警的情況忽然於2026年3月25日公告將終止服務,引發業界譁然,而在2025年底看好Sora在內容生成潛力宣布投資OpenAI 10億美金、還為Sora提供旗下大量角色IP的迪士尼也在第一時間宣布終止IP授權與投資計畫;目前Sora僅公告將結束服務,實際停止時間與相關措施等細節還未進一步公布。

We’re saying goodbye to the Sora app. To everyone who created with Sora, shared it, and built community around it: thank you. What you made with Sora mattered, and we know this news is disappointing.

We’ll share more soon, including timelines for the app and API and details on…

— Sora (@soraofficialapp) March 24, 2026
▲Sora的一生猶如璀璨的流星在不到兩年的時間消滅

雖然Sora表面風光,但也遇到許多挑戰,最根本的問題就是錯縱複雜的版權爭議,還有引起影視、遊戲等內容產業的抗議,此外就是其它AI競爭對手看到Sora的成功也紛紛參戰;不過導致OpenAI終止Sora的最後一根稻草,可能是AI技術因為OpenClaw(養龍蝦)引爆代理式AI大戰,雖然生成式AI仍有其重要性,但在資源有限的情況,乾脆選擇把資源聚焦在原本就具有優勢的基礎AGI通用模型與參戰代理式AI上。

Arm 首推自有品牌 AGI CPU 晶片 攜手 Meta 搶攻代理式 AI 伺服器商機

Arm 歷史性地推出首款自主設計的實體矽晶片產品「Arm AGI CPU」,採用台積電 3nm 製程,搭載 136 個核心,效能較 x86 平台高出兩倍以上,並由 Meta 作為首發共同開發夥伴。

在過去三十多年裡,Arm一直以提供IP矽智財與運算子系統 (CSS)授權為核心商業模式,但這項傳統在今日 (3/24)正式被打破。Arm歷史性地宣布推出首款由官方親自操刀設計,並且投入量產的實體矽晶片產品——「Arm AGI CPU」。這款專為AI資料中心量身打造的處理器,將劍指近期快速崛起的「代理式AI」 (Agentic AI)基礎設施需求,更由Meta作為首發共同開發夥伴。憑藉台積電3nm製程加持,Arm AGI CPU標榜能提供比傳統x86平台高出兩倍以上的機架運算效能。

打破IP授權框架:為何Arm決定親自跳下來做晶片?

早在先前有不少傳聞時,Arm執行長Rene Haas在去年就已經證實將推出自有品牌晶片,並且在此次活動上正式揭曉。而要理解Arm為何跨出這歷史性的一步,必須先看懂「代理式AI」帶來的基礎設施變革。

Rene Haas在聲明中表示,AI已經徹底重新定義運算的建構與佈署方式。過去的AI基礎設施高度集中在GPU的「模型訓練」上;但隨著AI應用轉向佈署持續運行的「AI代理」 (AI Agents)時,這些系統需要不斷地進行推理、規劃、協調與資料搬移,導致AI系統生成的Token數量呈指數級增長。

根據預估,當企業大規模導入代理驅動的應用時,每GW (吉瓦)電力所需的CPU數量將暴增超過4倍。但在功耗限制下,傳統x86處理器的複雜架構與高能耗已經難以負荷。

因此為了協助合作夥伴加快佈署AI代理速度,Arm決定打破過往僅提供IP或CSS (運算子系統)的「慣例」,直接推出自有品牌實體晶片,為市場提供更具彈性且直接的硬體選擇。

136核心與台積電3nm加持:效能直逼x86架構的兩倍

作為首發之作,Arm AGI CPU在硬體規格與能效表現上展現極強的企圖心:

• 頂尖核心與頻寬:單顆CPU搭載高達136個Arm Neoverse V3核心,並且提供每核心6GB/s的記憶體頻寬與低於100ns的延遲表現。

• 極致能效 (TDP):功耗控制在300瓦 (TDP),同時每個程式執行緒均配置專屬核心,確保在持續高負載下提供決定性的效能,消除降頻與閒置執行的浪費。

• 超高機架密度:支援高密度1U伺服器機架。在氣冷佈署模式下,每組機架可容納高達8160個CPU核心;若採用液冷系統設計,則能推升至每機架對應超過45000個CPU核心。

這款晶片交由台積電以其先進的3nm製程代工製造。Arm強調,AGI CPU每機架效能是傳統x86架構CPU的2倍以上,這意味著在每吉瓦的AI資料中心建置中,將能為企業省下高達100億美元的資本支出。

科技巨頭齊聲力挺,Meta成為首發聯合開發夥伴

Arm這次親自跳下來做晶片,並未引發原有IP客戶的強烈反彈,反而獲得業界極度廣泛的支持。

Meta更成為該晶片的首發合作夥伴與共同開發者。Meta基礎設施主管Santosh Janardhan表示,Meta將利用Arm AGI CPU來優化其應用程式家族的基礎設施,並且將其與Meta自研的AI加速晶片「MTIA」協同運作,藉此實現在大規模AI系統中更有效率的運算調度,而雙方也承諾將在未來多個世代的產品路線圖中持續深入合作。

除了Meta,包含OpenAI、Cerebras、Cloudflare、SAP與SK Telecom在內的多家企業也均確認將導入此晶片,用於加速器管理、控制平面處理,以及雲端API託管等核心任務。

而在硬體系統端,Arm已經與華擎 (ASRock Rack)、聯想 (Lenovo)、廣達 (Quanta Computer)及Supermicro等OEM及ODM 廠展開合作,預計今年下半年將有更多系統投入市場。

此外,包含AWS、Google、微軟、NVIDIA (執行長黃仁勳亦對此發表祝賀),以及三星、SK 海力士 (SK hynix)等超過50家科技巨頭,也都對Arm擴展至晶片產品線表達大力支持。

分析觀點

外界最初擔憂,Arm自己賣晶片是否會與AWS、Google或微軟這些已經利用Arm架構自行開發自有設計CPU的大客戶產生利益衝突?

從結果來看,Arm將AGI CPU的定位精準切入「代理式AI」這個新興且需才孔急的特殊領域。對於像Meta或OpenAI這樣需要海量CPU來搭配自家AI加速器,卻又不見得想投入龐大資源去「從零設計通用CPU」的廠商來說,直接購買現成、已經將Neoverse V3效能榨到極限的Arm AGI CPU,是最具成本效益的做法。

同時,這也是Arm針對x86陣營 (Intel與AMD)在資料中心領域發起的一場「絕殺」。當僅有300W熱設計功耗的Arm晶片能透過台積電3nm製程,在相同機架與電力限制下塞入136個核心,並且提供兩倍於x86架構CPU的效能時,x86架構在AI時代「功耗比過高」的致命傷將被進一步放大,同時也象徵資料中心的運算主力,正無可避免地向 ARM 架構全面傾斜。

Arm AGI CPU 單機架容納 4.5 萬核心 高密度架構對抗 x86 代理式 AI 算力瓶頸

Arm 首款自製晶片 AGI CPU 正式亮相技術細節,採用液冷 200kW 極端配置可容納 336 顆處理器,單機架核心數突破 4.5 萬組,效能是 x86 架構系統兩倍以上。

接續揭曉跨足實體晶片製造的消息後,Arm雲端AI事業部執行副總裁Mohamed Awad隨
後針對此款處理器進一步說明技術解析。這款名為「Arm AGI CPU」的全新處理器,是基於Arm Neoverse平台所打造的量產級產品,主要為了解決「代理式AI」時代下,CPU成為資料中心協調運算過程中的「瓶頸」問題。

為此,Arm徹底重新設計伺服器的參考架構,透過極致的機架密度與多執行緒效能,標榜能提供x86架構系統兩倍以上的單機架效能,並且宣告AI雲端基礎設施正式進入「Arm原生」的全新發展。

代理式AI的崛起:為何CPU成為算力瓶頸?

Mohamed Awad解釋,過去運算的瓶頸在於「人類」——人類輸入指令的速度,決定系統運作的執行節奏。但在「代理式AI」時代,這個限制消失了,軟體代理會以24小時不間斷地自主協調任務,並且與多個大型語言模型進行互動,接著做出即時決策。

但在這種持續運作且極度複雜的環境中,CPU的角色發生質變,不再只是GPU的配角,而是必須同時管理數以千計的分散式任務、調度加速器、管理記憶體與儲存,甚至處理海量AI代理之間的「扇出」 (fan-out)協調任務。而當負載呈指數級飆升,傳統x86架構CPU在持續高負載下,往往會出現核心爭用與效能衰退等問題,而這正是Arm決定親自下場打造AGI CPU的核心原因。

為「機架級」效率而生:單機架最高容納45000組核心

為了解決這個痛點,Arm AGI CPU從運作時脈、記憶體到I/O架構,全都是為了支援「高密度機架佈署」與「大規模平行運算」而量身訂做。

Arm官方釋出了極度暴力的硬體參考配置:

• 1OU雙節點設計:這是Arm提出的標準氣冷伺服器參考架構。每個刀鋒伺服器 (Blade)包含兩個節點,配置兩顆AGI CPU、專屬記憶體與I/O埠,在單一刀鋒伺服器即可提供272組運算核心。

• 氣冷36kW機架:一個標準的36kW氣冷機架系統則可塞滿30個上述刀鋒伺服器,總計提供高達8160個CPU核心。

• 液冷200kW巨獸:Arm更與Supermicro合作,設計支援200kW液冷的極端配置,單一機架可容納336顆Arm AGI CPU,總核心數更能突破驚人的45000個。

Mohamed Awad強調,這套架構能提供超越最新x86架構系統兩倍以上的機架運算效能。其關鍵在於Arm Neoverse V3核心的「單執行緒」 (single-threaded)效能與更高記憶體頻寬表現,確保每一個執行緒都能完成更多工作,並且不會像x86架構設計在滿載時可能發生效能崩潰。

不僅是賣晶片,更要定義硬體標準

值得注意的是,Arm這次不僅僅是推出晶片,更是打算直接定義下一代伺服器的硬體標準。

為了加速生態系採用,Arm宣布推出符合開放運算計畫 (OCP)DC-MHS標準尺寸的「Arm AGI CPU 1OU雙節點參考伺服器」。Arm計畫將這套伺服器設計、支援的韌體、系統架構規格、除錯框架及診斷工具,全數貢獻給OCP開放運算社群。

目前,這款晶片已經獲得包含Meta、OpenAI、Cerebras、Cloudflare等業界巨頭的採用承諾,而合作夥伴華擎、聯想與Supermicro已經開始接受商業系統的訂單。

分析觀點

從技術解析可以看出,Arm AGI CPU是一頭徹頭徹尾的「效能怪物」,而其更直接瞄準傳統x86架構資料中心機架弱項。

Arm並未選擇在單顆CPU的絕對算力上與x86競爭,而是利用Arm架構的「高能效比」與「高核心密度」,直接將戰場拉高到「機架級別」 (Rack-scale)。

當雲端服務商在評估資料中心建置時,他們看重的是「在這個36kW的機櫃限制下,能塞進多少算力?」。在這一點上,單機櫃能提供8000組CPU核心,甚至多達4.5萬個不降頻的的Arm架構CPU核心,對比受限於發熱與功耗的x86架構系統,具備更高優勢。

更深層的意義在於,Arm正在收編那些無力自行開發CPU,卻又急需高效能協調器的AI新創與雲端業者 (如OpenAI、Cerebras)。透過直接提供量產晶片與OCP開放運算硬體設計,Arm等同於為整個AI產業鋪好了一條名為「Neoverse」的高速公路。

這不僅是Arm商業模式的重大轉型,更是x86陣營接下來在AI伺服器市場面臨的最嚴峻挑戰。

❌