普通视图

发现新文章,点击刷新页面。
昨天以前首页

Arm推出Arm AGI CPU實體晶片與合作夥伴競爭,為何NVIDIA黃仁勳還老神在在作為生態系支持代表之一發表證言

作者 Chevelle.fu
2026年3月25日 16:58

Arm於2026年3月打破36年以來慣例以自己的名義推出首款實體晶片,不過本質上是與Meta共同合作,旨在結合Meta自研加速晶片發揮最大綜效,可視為偏向代Meta操刀設計、冠上Arm品牌的策略;理論上Arm褪下IP與運算子系統供應商身分與客戶競爭應該是客戶不樂見,不過NVIDIA執行長黃仁勳卻也登上生態系合作夥伴證言,到底葫蘆裡賣的是甚麼藥。

兄弟爬山各自努力的Arm伺服器生態

▲A64FX在Arm進軍高效能運算領域扮演重要角色

Arm自成功成為智慧手機切入運算領域後,一直試圖將版圖擴展到PC與高效能運算領域,也成功以出色的能源效率打進雲端服務業者用於大量資料儲存的客製化處理器供應爛,然而在高效能運算領域的引爆點,則是在富士通Fujitsu推出A64FX之後,顛覆當時Arm架構在資料中心多用於資料儲存而非高效能運算的刻板印象。

不過A64FX雖然表現出色,但後續以NVIDIA Cuda GPU加速運算為首,高效能運算的目光又聚焦到GPU身上;然而Arm則由於A64FX的助攻,著手為資料中心與高效能運算策畫Arm Neoverse IP與子系統,相較消費級的Cortex架構具有更高的擴展性以及針對高效能運算所需的指令級。

但也由於除了富士通A64FX以外,後續的Arm資料中心CPU並未躍升主角,後續選擇Arm架構的客戶多半是為了降低成本、特殊通道或功能需求等使用Arm架構,多選擇直接使用Arm Neoverse微架構搭配所需的功能介面進行擴展,即便是NVIDIA的Grace,則是以Neoverse CPU結合NVLink以利加速運算最大化的方式進行設計。

從生成式AI到代理式AI加劇對CPU的需求

▲Arm AGI CPU的目的是因應生成式AI,背後與Meta合作共同開發

在NVIDIA的CUDA加速運算引發AI革命的初期,多半業者對於AI基礎設施的目的聚焦在AI模型的訓練,同時AI模型的框架也有諸多選擇,故使得可透過軟體編程因應不同AI框架的NVIDIA GPU佔盡鋒頭,更不用說NVIDIA投注大量的軟體開發資源持續改善體驗。

但由ChatGPT到DeepSeek揭開生成式AI落地實用的浪潮,到2026年以OpenClaw引領代理式AI的變革,AI推論基礎設施成為全新的市場需求,故具有AI模型及框架主導權的大型業者積極投入加速器產品,但由於AI推論不同於訓練需要更高的CPU介入,一度淪為配角的CPU又搖身一變成為焦點。

大型晶片業者VS雲端服務業者的各取所需之戰

回到一開始提到為什麼黃仁勳仍作為Arm生態系夥伴發表證言,這並不代表NVIDIA將會引入Arm AGI CPU,因為從架構設計來說,旨在與Meta加速器搭配、僅支援PCIe Gen 6而非NVLink的Arm AGI CPU也難以取代NVIDIA自研的Vera CPU,倘若硬要搭配,Arm AGI CPU反而是與同樣採用PCIe的Intel Xeon及AMD Epyc競爭,但顯然意義不大。

▲NVIDIA等不及Arm Neoverse,於Vera CPU採用支援空間多執行緒自研的Olympus架構

對於NVIDIA而言,即便已經在Hopper世代就開始推廣基於Arm架構的Grace CPU,但多數產業夥伴仍由於開發環境的熟悉程度選擇搭配x86 CPU,僅有少數的業者選擇採用Grace CPU搭配GPU,這也是NVIDIA後續在Vera CPU不再使用Neoverse CPU、改為自研的Olympus架構的關鍵。

▲Arm AGI CPU的重要目的就是搭配Meta MITA加速器發揮最大效益

無論是NVIDIA Vera或是Arm AGI CPU,目的都是在解決新一代AI架構的CPU效能瓶頸,不過出發點仍稍稍不同,Vera則更朝兼顧訓練與推論的系統需求,Arm AGI CPU以配合Meta的MITA加速器性能最大化作為主要目的。

Arm資料中心處理器彼此之間的競合關係

無論對NVIDIA、Arm、AWS、Meta、微軟等導入Arm CPU的業者而言,目前的首要目的就是設法將Arm架構的效益最大化,當中最關鍵的就是設法建立生態系,也包括在軟體開發、系統機架等的共榮,如此次Arm也一併宣布貢獻1OU雙叢集機刀鋒伺服器參考設計與相關軟體,而NVIDIA的Olympus架構仍不脫基於Arm指令集。

▲Arm貢獻符合OCP標準的1OU雙叢集刀鋒伺服器,作為驅動Arm生態系的舉動

至於NVIDIA黃仁勳為何願意站台,除了Arm架構生態系還有待拓展,也還有另一層實際的客戶也許不那麼重疊的情況;由於現在的Arm架構資料中心CPU的出發點更偏向為了配合特定需求開發,也會造成客戶如果會選擇某品牌的CPU,則可能是為了某品牌提供的加速解決方案。

意味著倘若選擇NVIDIA加速方案或加速基礎設施的客戶,多半也會一併選擇NVIDIA的Vera CPU或x86 CPU,而選擇與Meta合作選擇MITA加速方案的業者,也不太可能棄Arm AGI CPU選擇NVIDIA Vera CPU;但回過頭來,這些大型業者短時間在AI模型訓練又很難擺脫NVIDIA。

▲Ampere原本在大型雲客戶紛紛選擇使用Neoverse架構後顯得尷尬,但已被軟銀集團收購成為Arm增強資料中心處理器的重要策略

雖然Arm架構陣營顯得同床異夢,但終極目標都是為了降低對x86 CPU的依賴以及提升成本效益,也使得仍相對x86生態系顯得弱勢的Arm架構支持者設法團結加速完善開發環境。

可能動搖雲服務業者原本自主Arm CPU計畫選擇與Arm合作

▲Arm AGI CPU變相示範客製化設計服務,可能吸引大型雲服務業者採納並把原本資源轉至客製化AI ASIC

然而Arm這一手真正的影響可能會是這些大型雲服務業者原本的自研Arm架構處理器計畫,一方面多數雲服務業者並未擺脫使用Arm Neoverse架構及運算子系統的情況,另一方面這些雲服務業者還需投注在客製化AI推論ASIC的研發。

此次Meta成功示範委由Arm量身打造與其系統最佳化的CPU,可能的影響就是對其它大型雲服務業者的自研計畫產生改變,有可能吸引它們將原本獨立CPU開發團隊資源轉向客製化ASIC團隊,選擇委由將需求提供給Arm,由Arm為其操刀循Arm AGI CPU模式進行開發,並與自身的客製化AI ASIC結合。

❌
❌