普通视图

发现新文章,点击刷新页面。
昨天以前首页

Arm攜手Meta跨足實體晶片推出Arm AGI資料中心CPU,Cloudflare、OpenAI、SAP與SK Telecom也將採用

作者 Chevelle.fu
2026年3月25日 01:47

Arm在創立的35年以來都是作為提供晶片相關IP、運算子系統的供應商,並未跨足實體晶片業務;然而Arm於舊金山的Arm Everywhere event活動宣布首次跨足實體晶片,針對新一代AI基礎設施需求以Neoverse V3架構結合先進高速通道,滿足代理式AI基礎設施所需;Arm表示透過Arm AGI CPU的推出,使Arm客戶可提供自客製化晶片到整合平台方案再到部署Arm設計的處理器等豐富的選擇,生態夥伴可自因應需求選擇合宜的解決方案。

▲Arm打破35年以來未涉及實體晶片業務的傳統,攜手Meta推出首款實體處理器產品Arm AGI CPU
▲OpenAI也宣布將採用Arm AGI CPU

雖然Arm AGI CPU為Arm第一款實體晶片產品,然而在延續Neoverse運算基礎,並獲得超過50家超大規模、雲端運算、晶片、記憶體、網路、軟體、系統設計與製造等跨領域生態夥伴支持。其中Meta不僅作為Arm AGI CPU的共同合作夥伴,也是主要客戶,此外包括erebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP以及SK Telecom等也與Arm簽署合約,同時永擎、聯想、廣達與Supermicro皆做為系統商開始接受搭載Arm AGI CPU的系統訂單。

攜手Meta共同開發

▲Arm現在與客戶的合作模式自各領域IP、子系統跨足到實體晶片

Arm AGI CPU是Arm與Meta共同開發,透過Arm AGI CPU針對新一代資料中心需求量身打造的設計,並與Meta自研的Meta Training and Inference Accelerator (MTIA))晶片協同作業,可在大規模AI系統獲得更高效率的排程。此外Arm也提到後續的產品也將持續開發,力求在效能、擴展與效率實現一流的水準,同時也將持續推進Arm Neoverse CSS產品路線,確保以不同方式與Arm合作的資料中心客戶都能持續在平台架構與軟體相容攜手並進。

▲Arm為Arm AGI CPU規劃符合OCP標準的1OU雙節點伺服器參考設計

Arm也為了加速Arm伺服器普及Arm伺服器CPU普及,Arm不僅規劃符合開放運算專案(OCP)與Arm System Ready規範的1OU雙節點參考設計,也將貢獻1OU雙節點參考設計伺服器的設計、配套韌體以及像是系統架構規範、框架與適用於基於Arm架構系統的診斷與驗證工具。

為大規模機架級代理式AI所設計的Arm AGI CPU

▲Arm AGI CPU基於136個Neoverse V3核心,並具備先進I/O與支援高時脈記憶體
▲依照Arm的形象圖,Arm AGI CPU應該是類似Grace CPU Superchip的雙晶粒封裝產品

Arm AGI CPU是為新一波AI革新的代理式AI工作負載所需的大規模機架型系統所規劃,旨在能夠並行處理數千個核心,以單一核心單執行緒滿足在長時間高負載下維持峰值性能;每個Arm AGI CPU基於3nm製程,為300W TDP,具有136個3.7GHz的Arm Neoverse V3核心,每個核心具備2MB的L2快取,同時具有96條PCIe Gen 6與支援CXL 3.0以利於記憶體擴展,還有適用於未來晶片與加速器架構的AMBA CHI擴展,此外具有6GB的記憶體頻寬、每個晶片達最高6TB的容量與低於100ns的記憶體延遲,並支援最高DDR5-8800記憶體。

▲標準36kW風冷機架可容納30組10OU刀鋒伺服器,達到8,160個CPU核心

依據Arm所展示的10OU雙節點設計,每個刀鋒伺服器包含2個Arm AGI CPU,每個晶片都有專用的記憶體與I/O控制,使單一刀鋒伺服器具備272個核心與高達12條64GB DDR5記憶體,並以一個標準36kW風冷機架裝載達30個刀鋒伺服器,可提供共8,160個核心;此外Arm還與Supermicro共同開發200kW液冷設計,可容量336個Arm AGI CPU與提供高達45,000個CPU。

▲Arm強調Arm AGI CPU相對x86更具擴展性與能源效率
▲強調Neoverse V3架構延續Arm出色的每瓦效能比

Arm強調在其參考設計下,Arm AGI CPU的每個機架性能對比x86高出2倍,每GW AI資料中心可減少100億美金的資本支出,同時相對x86伺服器受限核心互搶記憶體影響持續效能,Arm AGI CPU更高的記憶體頻寬有助使每個機架執行更多有效執行緒,同時作為基礎的Arm Neoverse V3亦具有相對傳統x86更出色的單執行緒能耗效能表現。

從背後食材供應商、賣調理包走向開代課調理餐廳

筆者以往在描述Arm的業務時,經常把Arm以往提供IP服務的模式敘述為一家食材供應商,客戶需要把這些食材自行烹調才能成為一道菜,但客戶可依據Arm給予的標準食譜或自行調理;當Arm進一步推出運算子系統產品,筆者認為運算子系統則像是調理包,以更速成的方式讓客戶可以快速上菜,但也可以自己幫調理包的成品加菜點綴。

而這次宣布與Meta合作推出Arm AGI CPU,更像是為客戶提供代客料理服務的餐廳,作為食材供應商的Arm依據Meta的需求,以手中的資源與知識,為Meta客製化完成一道Meta所需要的料理。

▲雖然本質上更像是Meta委託Arm為其設計客製化CPU,但Arm選擇以「首次跨足實體晶片」的宣傳方式恐怕與Arm現在脫離軟銀成為獨立上市公司有關

如果以筆者個人的想法,Arm雖然檯面上是宣布跨足實體晶片業務,但本質上則是為大型客戶提供客製化晶片設計服務,同時把這些產品擴展大型客戶的生態系夥伴;筆者認為Arm此舉除了Meta以外,像是AWS、微軟、Google等直接使用Neoverse CPU IP設計自主處理器的客戶,很有可能進一步轉向此模式與Arm合作打造客製化CPU甚至XPU。

但不同於單純的設計代工業務,Arm並未藏於Meta的招牌下,反而使自己的招牌擺在Meta之前,恐怕與Arm已經成為一家獨立上市公司有關,除了提供新型態的業務服務外,Arm也希冀讓Arm品牌登上實體檯面獲得更多目光的焦點。

OpenAI宣布將終止Sora影片生成服務,Disney立即中斷IP合作與10億美金投資計畫

作者 Chevelle.fu
2026年3月25日 13:19

於2024年由OpenAI推出的影片生成服務Sora被視為有望顛覆影片創作產業的重要內容生成服務,而且也甫在2025年底擴大服務地區到亞洲市場;然而OpenAI在無預警的情況忽然於2026年3月25日公告將終止服務,引發業界譁然,而在2025年底看好Sora在內容生成潛力宣布投資OpenAI 10億美金、還為Sora提供旗下大量角色IP的迪士尼也在第一時間宣布終止IP授權與投資計畫;目前Sora僅公告將結束服務,實際停止時間與相關措施等細節還未進一步公布。

We’re saying goodbye to the Sora app. To everyone who created with Sora, shared it, and built community around it: thank you. What you made with Sora mattered, and we know this news is disappointing.

We’ll share more soon, including timelines for the app and API and details on…

— Sora (@soraofficialapp) March 24, 2026
▲Sora的一生猶如璀璨的流星在不到兩年的時間消滅

雖然Sora表面風光,但也遇到許多挑戰,最根本的問題就是錯縱複雜的版權爭議,還有引起影視、遊戲等內容產業的抗議,此外就是其它AI競爭對手看到Sora的成功也紛紛參戰;不過導致OpenAI終止Sora的最後一根稻草,可能是AI技術因為OpenClaw(養龍蝦)引爆代理式AI大戰,雖然生成式AI仍有其重要性,但在資源有限的情況,乾脆選擇把資源聚焦在原本就具有優勢的基礎AGI通用模型與參戰代理式AI上。

Arm 首推自有品牌 AGI CPU 晶片 攜手 Meta 搶攻代理式 AI 伺服器商機

作者 Mash Yang
2026年3月25日 13:32

Arm 歷史性地推出首款自主設計的實體矽晶片產品「Arm AGI CPU」,採用台積電 3nm 製程,搭載 136 個核心,效能較 x86 平台高出兩倍以上,並由 Meta 作為首發共同開發夥伴。

在過去三十多年裡,Arm一直以提供IP矽智財與運算子系統 (CSS)授權為核心商業模式,但這項傳統在今日 (3/24)正式被打破。Arm歷史性地宣布推出首款由官方親自操刀設計,並且投入量產的實體矽晶片產品——「Arm AGI CPU」。這款專為AI資料中心量身打造的處理器,將劍指近期快速崛起的「代理式AI」 (Agentic AI)基礎設施需求,更由Meta作為首發共同開發夥伴。憑藉台積電3nm製程加持,Arm AGI CPU標榜能提供比傳統x86平台高出兩倍以上的機架運算效能。

打破IP授權框架:為何Arm決定親自跳下來做晶片?

早在先前有不少傳聞時,Arm執行長Rene Haas在去年就已經證實將推出自有品牌晶片,並且在此次活動上正式揭曉。而要理解Arm為何跨出這歷史性的一步,必須先看懂「代理式AI」帶來的基礎設施變革。

Rene Haas在聲明中表示,AI已經徹底重新定義運算的建構與佈署方式。過去的AI基礎設施高度集中在GPU的「模型訓練」上;但隨著AI應用轉向佈署持續運行的「AI代理」 (AI Agents)時,這些系統需要不斷地進行推理、規劃、協調與資料搬移,導致AI系統生成的Token數量呈指數級增長。

根據預估,當企業大規模導入代理驅動的應用時,每GW (吉瓦)電力所需的CPU數量將暴增超過4倍。但在功耗限制下,傳統x86處理器的複雜架構與高能耗已經難以負荷。

因此為了協助合作夥伴加快佈署AI代理速度,Arm決定打破過往僅提供IP或CSS (運算子系統)的「慣例」,直接推出自有品牌實體晶片,為市場提供更具彈性且直接的硬體選擇。

136核心與台積電3nm加持:效能直逼x86架構的兩倍

作為首發之作,Arm AGI CPU在硬體規格與能效表現上展現極強的企圖心:

• 頂尖核心與頻寬:單顆CPU搭載高達136個Arm Neoverse V3核心,並且提供每核心6GB/s的記憶體頻寬與低於100ns的延遲表現。

• 極致能效 (TDP):功耗控制在300瓦 (TDP),同時每個程式執行緒均配置專屬核心,確保在持續高負載下提供決定性的效能,消除降頻與閒置執行的浪費。

• 超高機架密度:支援高密度1U伺服器機架。在氣冷佈署模式下,每組機架可容納高達8160個CPU核心;若採用液冷系統設計,則能推升至每機架對應超過45000個CPU核心。

這款晶片交由台積電以其先進的3nm製程代工製造。Arm強調,AGI CPU每機架效能是傳統x86架構CPU的2倍以上,這意味著在每吉瓦的AI資料中心建置中,將能為企業省下高達100億美元的資本支出。

科技巨頭齊聲力挺,Meta成為首發聯合開發夥伴

Arm這次親自跳下來做晶片,並未引發原有IP客戶的強烈反彈,反而獲得業界極度廣泛的支持。

Meta更成為該晶片的首發合作夥伴與共同開發者。Meta基礎設施主管Santosh Janardhan表示,Meta將利用Arm AGI CPU來優化其應用程式家族的基礎設施,並且將其與Meta自研的AI加速晶片「MTIA」協同運作,藉此實現在大規模AI系統中更有效率的運算調度,而雙方也承諾將在未來多個世代的產品路線圖中持續深入合作。

除了Meta,包含OpenAI、Cerebras、Cloudflare、SAP與SK Telecom在內的多家企業也均確認將導入此晶片,用於加速器管理、控制平面處理,以及雲端API託管等核心任務。

而在硬體系統端,Arm已經與華擎 (ASRock Rack)、聯想 (Lenovo)、廣達 (Quanta Computer)及Supermicro等OEM及ODM 廠展開合作,預計今年下半年將有更多系統投入市場。

此外,包含AWS、Google、微軟、NVIDIA (執行長黃仁勳亦對此發表祝賀),以及三星、SK 海力士 (SK hynix)等超過50家科技巨頭,也都對Arm擴展至晶片產品線表達大力支持。

分析觀點

外界最初擔憂,Arm自己賣晶片是否會與AWS、Google或微軟這些已經利用Arm架構自行開發自有設計CPU的大客戶產生利益衝突?

從結果來看,Arm將AGI CPU的定位精準切入「代理式AI」這個新興且需才孔急的特殊領域。對於像Meta或OpenAI這樣需要海量CPU來搭配自家AI加速器,卻又不見得想投入龐大資源去「從零設計通用CPU」的廠商來說,直接購買現成、已經將Neoverse V3效能榨到極限的Arm AGI CPU,是最具成本效益的做法。

同時,這也是Arm針對x86陣營 (Intel與AMD)在資料中心領域發起的一場「絕殺」。當僅有300W熱設計功耗的Arm晶片能透過台積電3nm製程,在相同機架與電力限制下塞入136個核心,並且提供兩倍於x86架構CPU的效能時,x86架構在AI時代「功耗比過高」的致命傷將被進一步放大,同時也象徵資料中心的運算主力,正無可避免地向 ARM 架構全面傾斜。

Arm AGI CPU 單機架容納 4.5 萬核心 高密度架構對抗 x86 代理式 AI 算力瓶頸

作者 Mash Yang
2026年3月25日 13:33

Arm 首款自製晶片 AGI CPU 正式亮相技術細節,採用液冷 200kW 極端配置可容納 336 顆處理器,單機架核心數突破 4.5 萬組,效能是 x86 架構系統兩倍以上。

接續揭曉跨足實體晶片製造的消息後,Arm雲端AI事業部執行副總裁Mohamed Awad隨
後針對此款處理器進一步說明技術解析。這款名為「Arm AGI CPU」的全新處理器,是基於Arm Neoverse平台所打造的量產級產品,主要為了解決「代理式AI」時代下,CPU成為資料中心協調運算過程中的「瓶頸」問題。

為此,Arm徹底重新設計伺服器的參考架構,透過極致的機架密度與多執行緒效能,標榜能提供x86架構系統兩倍以上的單機架效能,並且宣告AI雲端基礎設施正式進入「Arm原生」的全新發展。

代理式AI的崛起:為何CPU成為算力瓶頸?

Mohamed Awad解釋,過去運算的瓶頸在於「人類」——人類輸入指令的速度,決定系統運作的執行節奏。但在「代理式AI」時代,這個限制消失了,軟體代理會以24小時不間斷地自主協調任務,並且與多個大型語言模型進行互動,接著做出即時決策。

但在這種持續運作且極度複雜的環境中,CPU的角色發生質變,不再只是GPU的配角,而是必須同時管理數以千計的分散式任務、調度加速器、管理記憶體與儲存,甚至處理海量AI代理之間的「扇出」 (fan-out)協調任務。而當負載呈指數級飆升,傳統x86架構CPU在持續高負載下,往往會出現核心爭用與效能衰退等問題,而這正是Arm決定親自下場打造AGI CPU的核心原因。

為「機架級」效率而生:單機架最高容納45000組核心

為了解決這個痛點,Arm AGI CPU從運作時脈、記憶體到I/O架構,全都是為了支援「高密度機架佈署」與「大規模平行運算」而量身訂做。

Arm官方釋出了極度暴力的硬體參考配置:

• 1OU雙節點設計:這是Arm提出的標準氣冷伺服器參考架構。每個刀鋒伺服器 (Blade)包含兩個節點,配置兩顆AGI CPU、專屬記憶體與I/O埠,在單一刀鋒伺服器即可提供272組運算核心。

• 氣冷36kW機架:一個標準的36kW氣冷機架系統則可塞滿30個上述刀鋒伺服器,總計提供高達8160個CPU核心。

• 液冷200kW巨獸:Arm更與Supermicro合作,設計支援200kW液冷的極端配置,單一機架可容納336顆Arm AGI CPU,總核心數更能突破驚人的45000個。

Mohamed Awad強調,這套架構能提供超越最新x86架構系統兩倍以上的機架運算效能。其關鍵在於Arm Neoverse V3核心的「單執行緒」 (single-threaded)效能與更高記憶體頻寬表現,確保每一個執行緒都能完成更多工作,並且不會像x86架構設計在滿載時可能發生效能崩潰。

不僅是賣晶片,更要定義硬體標準

值得注意的是,Arm這次不僅僅是推出晶片,更是打算直接定義下一代伺服器的硬體標準。

為了加速生態系採用,Arm宣布推出符合開放運算計畫 (OCP)DC-MHS標準尺寸的「Arm AGI CPU 1OU雙節點參考伺服器」。Arm計畫將這套伺服器設計、支援的韌體、系統架構規格、除錯框架及診斷工具,全數貢獻給OCP開放運算社群。

目前,這款晶片已經獲得包含Meta、OpenAI、Cerebras、Cloudflare等業界巨頭的採用承諾,而合作夥伴華擎、聯想與Supermicro已經開始接受商業系統的訂單。

分析觀點

從技術解析可以看出,Arm AGI CPU是一頭徹頭徹尾的「效能怪物」,而其更直接瞄準傳統x86架構資料中心機架弱項。

Arm並未選擇在單顆CPU的絕對算力上與x86競爭,而是利用Arm架構的「高能效比」與「高核心密度」,直接將戰場拉高到「機架級別」 (Rack-scale)。

當雲端服務商在評估資料中心建置時,他們看重的是「在這個36kW的機櫃限制下,能塞進多少算力?」。在這一點上,單機櫃能提供8000組CPU核心,甚至多達4.5萬個不降頻的的Arm架構CPU核心,對比受限於發熱與功耗的x86架構系統,具備更高優勢。

更深層的意義在於,Arm正在收編那些無力自行開發CPU,卻又急需高效能協調器的AI新創與雲端業者 (如OpenAI、Cerebras)。透過直接提供量產晶片與OCP開放運算硬體設計,Arm等同於為整個AI產業鋪好了一條名為「Neoverse」的高速公路。

這不僅是Arm商業模式的重大轉型,更是x86陣營接下來在AI伺服器市場面臨的最嚴峻挑戰。

❌
❌