普通视图

发现新文章,点击刷新页面。
昨天以前首页

Blue Origin 佈署 5.16 萬枚衛星打造軌道 AI 資料中心 搶佔太空算力

作者 Mash Yang
2026年3月22日 12:44

藍色起源 Blue Origin 向美國 FCC 申請「日出計畫」,將佈署超過 5 萬枚衛星在太空建立 AI 資料中心,利用太陽能與太空環境優勢,正式加入與 SpaceX 的太空算力競賽。

Jeff Bezos的太空探索公司Blue Origin (藍色起源)稍早向美國聯邦通訊委員會 (FCC)遞交一份申請文件,計畫佈署多達51600枚衛星,在太空中打造一個龐大的「AI資料中心」網路。這項名為「日出計畫」 (Project Sunrise)的提議,將利用無窮盡的太陽能,以及不受地理限制的太空環境,為地球上爆炸性成長的AI運算需求提供全新解決方案,同時也宣告Blue Origin正式加入了與SpaceX的「太空算力」軍備競賽

日出計畫:超過五萬枚衛星組成的太空算力網

根據華爾街日報等媒體報導,Blue Origin向美國聯邦通訊委員會提交的「日出計畫」揭露驚人的佈署規模。

這51600枚衛星將被佈署在海拔高度約311英里至1118英里 (約500公里至1800公里)高度的太陽同步軌道 (Sun-synchronous orbits)上,整個星座網路將分為多個層級,每一層預計包含300到1000枚衛星,衛星彼此間的間距維持在3到6英里左右。

Blue Origin在文件中明確表示,這個龐大的星系將做為地球地面資料中心的強大補充,專門用來提供人工智慧所需的龐大運算能力。

零地價、免電網:太陽能驅動的低成本優勢

為什麼要把笨重且高耗能的AI伺服器送上太空?Blue Origin給出的答案是:邊際成本 (Marginal cost)。

• 無窮盡的綠色能源:這些衛星將配備大型太陽能板,在太陽同步軌道上能近乎全天候地吸收太陽能,直接為高耗能的AI晶片供電。

• 擺脫地球基礎設施束縛:軌道資料中心不需要購買昂貴的土地,也不需要依賴地球上日益緊繃的電網設施,更不會引發與民生搶電的環保爭議。

Blue Origin強調,這種相較於地面替代方案更低的運算邊際成本,將能「促使美國開發與使用AI的企業蓬勃發展,並且加速機器學習、自主系統與預測分析領域的重大突破」。

太空算力之戰:迎戰SpaceX的百萬巨獸

Blue Origin此次向美國聯邦通訊委員會提出申請,顯然是針對競爭對手SpaceX的正面回應。

早在今年1月,Elon Musk的SpaceX就已經率先向美國聯邦通訊委員會提出申請,計畫佈署規模高達「100萬枚」衛星的超級星座,計畫在建立軌道資料中心。SpaceX當時的理由如出一轍:「軌道資料中心是滿足日益加速的AI運算需求最有效率的方式」。

而從發射載具、衛星網路,到現在的「太空AI資料中心」,兩位億萬富翁的太空戰火顯然已經全面升級。

轉往太空發展的必然趨勢?

實際上,就連NVIDIA在今年GTC 2026期間也提出將資料中心搬上外太空的想法,雖然主要聚焦在將資料中心等級的AI算力佈署於外太空,但也意味接下來將會有更多AI運算資源會直接建構在衛星之上,並且藉由外太空的太陽能驅動、以外太空極寒環境確保算力穩定輸出。

另一方面,Google先前也已經提出名為「Project Suncatcher」的太空資料中心計畫,歐盟也在2022年提出將資料中心送上太空的計畫

Dell 全面推動企業現代化:從資料中心到 AI PC 的全方位升級戰略

作者 ClaireC
2026年3月25日 17:02

面對 AI 時代的快速演進,企業對運算效能、資料管理與基礎架構的需求正以前所未有的速度攀升。根據 Dell 最新調查,89% 的企業表示 AI PC 必須支援 AI 驅動的應用與工作負載,同時 69% 的企業認為現有儲存能力已無法滿足現代化 IT 的成長需求。在這股浪潮下,企業迫切需要更具擴展性、更高效且更易管理的 IT 架構,以支撐未來的創新與競爭力。

The post Dell 全面推動企業現代化:從資料中心到 AI PC 的全方位升級戰略 appeared first on 電腦王阿達.

Arm推出Arm AGI CPU實體晶片與合作夥伴競爭,為何NVIDIA黃仁勳還老神在在作為生態系支持代表之一發表證言

作者 Chevelle.fu
2026年3月25日 16:58

Arm於2026年3月打破36年以來慣例以自己的名義推出首款實體晶片,不過本質上是與Meta共同合作,旨在結合Meta自研加速晶片發揮最大綜效,可視為偏向代Meta操刀設計、冠上Arm品牌的策略;理論上Arm褪下IP與運算子系統供應商身分與客戶競爭應該是客戶不樂見,不過NVIDIA執行長黃仁勳卻也登上生態系合作夥伴證言,到底葫蘆裡賣的是甚麼藥。

兄弟爬山各自努力的Arm伺服器生態

▲A64FX在Arm進軍高效能運算領域扮演重要角色

Arm自成功成為智慧手機切入運算領域後,一直試圖將版圖擴展到PC與高效能運算領域,也成功以出色的能源效率打進雲端服務業者用於大量資料儲存的客製化處理器供應爛,然而在高效能運算領域的引爆點,則是在富士通Fujitsu推出A64FX之後,顛覆當時Arm架構在資料中心多用於資料儲存而非高效能運算的刻板印象。

不過A64FX雖然表現出色,但後續以NVIDIA Cuda GPU加速運算為首,高效能運算的目光又聚焦到GPU身上;然而Arm則由於A64FX的助攻,著手為資料中心與高效能運算策畫Arm Neoverse IP與子系統,相較消費級的Cortex架構具有更高的擴展性以及針對高效能運算所需的指令級。

但也由於除了富士通A64FX以外,後續的Arm資料中心CPU並未躍升主角,後續選擇Arm架構的客戶多半是為了降低成本、特殊通道或功能需求等使用Arm架構,多選擇直接使用Arm Neoverse微架構搭配所需的功能介面進行擴展,即便是NVIDIA的Grace,則是以Neoverse CPU結合NVLink以利加速運算最大化的方式進行設計。

從生成式AI到代理式AI加劇對CPU的需求

▲Arm AGI CPU的目的是因應生成式AI,背後與Meta合作共同開發

在NVIDIA的CUDA加速運算引發AI革命的初期,多半業者對於AI基礎設施的目的聚焦在AI模型的訓練,同時AI模型的框架也有諸多選擇,故使得可透過軟體編程因應不同AI框架的NVIDIA GPU佔盡鋒頭,更不用說NVIDIA投注大量的軟體開發資源持續改善體驗。

但由ChatGPT到DeepSeek揭開生成式AI落地實用的浪潮,到2026年以OpenClaw引領代理式AI的變革,AI推論基礎設施成為全新的市場需求,故具有AI模型及框架主導權的大型業者積極投入加速器產品,但由於AI推論不同於訓練需要更高的CPU介入,一度淪為配角的CPU又搖身一變成為焦點。

大型晶片業者VS雲端服務業者的各取所需之戰

回到一開始提到為什麼黃仁勳仍作為Arm生態系夥伴發表證言,這並不代表NVIDIA將會引入Arm AGI CPU,因為從架構設計來說,旨在與Meta加速器搭配、僅支援PCIe Gen 6而非NVLink的Arm AGI CPU也難以取代NVIDIA自研的Vera CPU,倘若硬要搭配,Arm AGI CPU反而是與同樣採用PCIe的Intel Xeon及AMD Epyc競爭,但顯然意義不大。

▲NVIDIA等不及Arm Neoverse,於Vera CPU採用支援空間多執行緒自研的Olympus架構

對於NVIDIA而言,即便已經在Hopper世代就開始推廣基於Arm架構的Grace CPU,但多數產業夥伴仍由於開發環境的熟悉程度選擇搭配x86 CPU,僅有少數的業者選擇採用Grace CPU搭配GPU,這也是NVIDIA後續在Vera CPU不再使用Neoverse CPU、改為自研的Olympus架構的關鍵。

▲Arm AGI CPU的重要目的就是搭配Meta MITA加速器發揮最大效益

無論是NVIDIA Vera或是Arm AGI CPU,目的都是在解決新一代AI架構的CPU效能瓶頸,不過出發點仍稍稍不同,Vera則更朝兼顧訓練與推論的系統需求,Arm AGI CPU以配合Meta的MITA加速器性能最大化作為主要目的。

Arm資料中心處理器彼此之間的競合關係

無論對NVIDIA、Arm、AWS、Meta、微軟等導入Arm CPU的業者而言,目前的首要目的就是設法將Arm架構的效益最大化,當中最關鍵的就是設法建立生態系,也包括在軟體開發、系統機架等的共榮,如此次Arm也一併宣布貢獻1OU雙叢集機刀鋒伺服器參考設計與相關軟體,而NVIDIA的Olympus架構仍不脫基於Arm指令集。

▲Arm貢獻符合OCP標準的1OU雙叢集刀鋒伺服器,作為驅動Arm生態系的舉動

至於NVIDIA黃仁勳為何願意站台,除了Arm架構生態系還有待拓展,也還有另一層實際的客戶也許不那麼重疊的情況;由於現在的Arm架構資料中心CPU的出發點更偏向為了配合特定需求開發,也會造成客戶如果會選擇某品牌的CPU,則可能是為了某品牌提供的加速解決方案。

意味著倘若選擇NVIDIA加速方案或加速基礎設施的客戶,多半也會一併選擇NVIDIA的Vera CPU或x86 CPU,而選擇與Meta合作選擇MITA加速方案的業者,也不太可能棄Arm AGI CPU選擇NVIDIA Vera CPU;但回過頭來,這些大型業者短時間在AI模型訓練又很難擺脫NVIDIA。

▲Ampere原本在大型雲客戶紛紛選擇使用Neoverse架構後顯得尷尬,但已被軟銀集團收購成為Arm增強資料中心處理器的重要策略

雖然Arm架構陣營顯得同床異夢,但終極目標都是為了降低對x86 CPU的依賴以及提升成本效益,也使得仍相對x86生態系顯得弱勢的Arm架構支持者設法團結加速完善開發環境。

可能動搖雲服務業者原本自主Arm CPU計畫選擇與Arm合作

▲Arm AGI CPU變相示範客製化設計服務,可能吸引大型雲服務業者採納並把原本資源轉至客製化AI ASIC

然而Arm這一手真正的影響可能會是這些大型雲服務業者原本的自研Arm架構處理器計畫,一方面多數雲服務業者並未擺脫使用Arm Neoverse架構及運算子系統的情況,另一方面這些雲服務業者還需投注在客製化AI推論ASIC的研發。

此次Meta成功示範委由Arm量身打造與其系統最佳化的CPU,可能的影響就是對其它大型雲服務業者的自研計畫產生改變,有可能吸引它們將原本獨立CPU開發團隊資源轉向客製化ASIC團隊,選擇委由將需求提供給Arm,由Arm為其操刀循Arm AGI CPU模式進行開發,並與自身的客製化AI ASIC結合。

Meta 砸 270 億美元建史上最大資料中心 並自建 7 座天然氣電廠

作者 Mash Yang
2026年3月29日 12:37

Meta 為因應 AI 龐大電力需求,投入 270 億美元興建有史以來最大資料中心,並自行興建 7 座天然氣發電廠,期望藉此紓解高耗電引發的民怨壓力。

隨著生成式AI帶來的算力需求呈指數級成長,科技業者正面臨前所未有的「能源焦慮」與「公關危機」。Meta近期證實,為了支撐其位於美國路易斯安那州、斥資270億美元興建的史上最大AI資料中心,公司已與當地電力供應商Entergy Louisiana達成協議,將全額出資興建基礎能源設施。這項協議包含7座新的天然氣發電廠、長達240英里的輸電線路以及電池儲能系統。

此舉緊跟在科技業近期發布的「不具約束力」能源承諾之後,試圖向外界證明:Meta願意自行吸收AI帶來的龐大用電成本,而非將電費暴漲的苦果轉嫁給當地居民。

基礎建設的巨獸:5200兆瓦的天然氣與綠能佈局

這座位於路易斯安那州里奇蘭郡 (Richland Parish)、佔地高達400萬平方英尺的巨型資料中心,目前正在如火如荼地興建中。為了餵飽這頭「吃電怪獸」,Meta的能源佈局不僅規模龐大,更涵蓋傳統與新興能源:

• 天然氣與電網升級:協議中明訂,Meta將出資興建7座總發電量高達5200兆瓦 (MW)的天然氣發電廠,並且鋪設240英里長、運作電壓達500千伏 (kV)的輸電線路,外加位於三個不同地點的電池儲能系統。

• 再生能源投資:除了傳統能源,Meta也承諾提供資金,協助開發高達2500兆瓦的新型再生能源資源。

• 核能未來:為了確保更長遠的零碳排基載電力,Meta也簽署一份合作備忘錄,為未來的核能發電開發預作準備。

科技業者們的「自律」承諾與日益高漲監管呼聲

Meta這次的鉅額基礎設施投資,發生的時間點極為敏感。隨著AI資料中心如雨後春筍般湧現,美國各地社群對於「電費上漲」與「環境破壞」的怒火正不斷升溫。

• 無約束力的承諾:包含Meta在內的多家科技業者,近期才剛聯合宣示將「建設、引進或購買滿足其新電力需求的新世代資源,並且支付這些資源的全部成本」。然而,這份聲明完全缺乏實質的法律約束力或任何執行機制。

• 強烈的民意反彈:去年12月的一份民調顯示,高達60%的美國民眾 (橫跨民主黨、共和黨與獨立人士的政治界線)支持對AI實施更嚴格的監管。

• 政治力介入:就在本週,美國重量級參議員Bernie Sanders與眾議員Alexandria Ocasio-Cortez共同提出一項法案,要求在通過具有實質意義的監管法規之前,強制暫停所有新資料中心的建設。

分析觀點

Meta選擇為七座天然氣發電廠與相關電網的建設「買單」,表面上是展現保護地方社群的企業社會責任,實質上更像是一場與時間賽跑的「監管防衛戰」。

在AI算力軍備競賽中,硬體擴張的速度已經遠遠甩開了綠能基礎建設的腳步。儘管Meta同時承諾2500兆瓦的再生能源與未來的核能開發,但「遠水救不了近火」,真正能穩定、快速且大量滿足AI即時供電需求的,依然是傳統的天然氣。這也無意間戳破科技大廠長期以來高舉的「100%綠電」神話——在AI毫無節制的龐大胃口面前,化石燃料顯然仍是短期內無法戒除的依賴。

而更深層地看,Meta這樣大張旗鼓地投資在地電網,實際上是標準的「花錢消災」。面對國會議員揚言「暫停資料中心建設」的核彈級法案,矽谷巨頭們正試圖透過這種自主投資的行為模式,向選民與政府官員傳遞一個明確的訊息:「我們有能力自我管理並吸收成本,不需要嚴苛的法律來綁手綁腳」。

然而,在缺乏外部強制監管的情況下,這些承諾最終能否確實保障當地居民免受電價波動之苦?這部「科技巨頭宣稱會乖乖自律」的老電影,市場與大眾恐怕已經看過太多次了。

昨天 — 2026年3月31日首页

Mistral AI 融資 8.3 億美元自建資料中心 追求歐洲主權 AI

作者 Mash Yang
2026年3月31日 21:14

「歐洲版 OpenAI」的 Mistral AI 獲得 8.3 億美元銀行貸款,將在巴黎與歐洲各地自建資料中心,佈署 13800 顆 NVIDIA GB300 晶片,打破美國雲端巨頭的壟斷。

被譽為「歐洲版OpenAI」的法國AI新創獨角獸Mistral AI,近期傳出已經取得8.3億美元的銀行聯合貸款。這筆鉅資將直接投入於巴黎近郊與歐洲各地自建AI資料中心,預計佈署多達13800顆NVIDIA最新的GB300晶片。此舉不僅宣告Mistral AI正式從「模型開發商」跨足「底層基礎設施供應商」,更呼應歐洲近年來強烈渴求的「主權AI」 (Sovereign AI)浪潮,試圖在美國科技巨頭的夾擊下,殺出一條資料自主的血路。

1.3萬顆GB300晶片進駐巴黎

根據金融時報路透新聞報導,Mistral AI的擴張計畫極具野心。這筆8.3億美元資金,是該公司成立以來首度以銀行貸款形式,由法國巴黎銀行 (BNP Paribas)、滙豐銀行 (HSBC)等七家大型金融機構共同提供。

這筆資金的首要任務,是在巴黎近郊興建一座大型AI資料中心,預計將於今年內正式啟用。該資料中心將一口氣佈署約13800顆NVIDIA最新的GB300晶片,專門用來支援大型語言模型 (LLM)的龐大訓練與高負載推論運算需求。

除了深耕法國主場,Mistral AI也計畫將實體基礎設施的觸角延伸至瑞典,並且訂下在2027年前,於全歐洲累積佈建約200MW算力規模的宏大目標。

擁抱「主權AI」,打破美系雲端壟斷

Mistral AI成立於2023年,由前DeepMind與Meta AI的研究人員所創立。之所以能獲得歐洲資本與政府的高度青睞,關鍵在於Mistral AI完美契合歐洲的「主權AI」戰略。

近年來,歐洲企業與政府對於將敏感資料交由美國雲端巨頭 (如AWS、微軟Azure、Google Cloud)處理感到日益不安。為了強化資料治理與隱私保護,歐洲市場極度渴望能在「本地端」建立完全可控的AI運算環境。

而在眾多歐洲新創中,Mistral AI是極少數同時具備「自研世界級大型語言模型能力」,如今又加入具備「提供在地實體基礎設施服務」的全方位歐洲境內業者。

為何選擇借錢?不稀釋股權的聰明槓桿操作

回顧去年9月,Mistral AI才剛完成規模高達17億歐元的C輪融資,公司估值一舉衝上11.7億歐元。既然口袋夠深,為何這次選擇向銀行借錢?

市場分析師點出,不同於軟體研發的無形資產,資料中心廠房與NVIDIA AI伺服器目前屬於極具保值性的「重資產」。這類硬體設施非常適合直接作為「抵押品」,並且透過專案融資 (Project Financing),或是藉由銀行貸款的方式籌措資金,不僅能讓Mistral AI獲得擴張所需的龐大資本,更重要的是創辦團隊與現有投資人完全不需要面臨股權被進一步稀釋的風險。

❌
❌