普通视图

发现新文章,点击刷新页面。
昨天以前首页

AI 新創 poolside 2GW 算力夢碎 CoreWeave 合作破局轉向 Google 救急

作者 Mash Yang
2026年4月3日 12:13

AI 新創 poolside 與 CoreWeave 合作宣告破局,20 億美元融資也告吹,德州「Project Horizon」超級資料中心計畫陷入停滯,目前急尋 Google 等雲端巨頭接手。

曾發下豪語要打造從「天然氣發電到人工智慧」完全垂直整合的AI程式碼新創poolside,如今正面臨巨大的資金與基礎設施危機。根據金融時報最新報導,poolside原先與新興雲端供應商CoreWeave達成的超級算力合作協議已宣告破局,而一筆由NVIDIA領投、高達20億美元的融資案也隨之告吹。為了挽救這座位於德州、極具野心的2GW (吉瓦)規模AI資料中心計畫,poolside目前正急尋新的雲端與資料中心合作夥伴,甚至已找上Google等科技巨頭洽談,試圖讓這項名為「Project Horizon」的超級基建起死回生。

20億美元融資與超級合約雙雙告吹

回顧去年10月,poolside曾高調宣布與GPU雲端供應商CoreWeave達成歷史性的戰略合作。當時的協議內容將由CoreWeave為poolside提供超過40000顆NVIDIA最頂級的GB300 NVL72晶片運算叢集,並且承諾作為德州2GW算力園區「Project Horizon」的首期主力租戶與營運夥伴。

然而,建置如此龐大基礎設施的資金缺口顯然超乎雙方預期。金融時報引述消息人士指出,poolside原本寄望於一筆由NVIDIA領投、規模高達20億美元的新一輪融資,藉此支撐這個龐大計畫。但隨著這筆關鍵融資的最終談判宣告破裂,連帶導致poolside無力支付硬體與建置費用,最終讓與CoreWeave之間的基礎設施部署合約被迫取消。

野心勃勃的Project Horizon陷入停擺

這座讓poolside傾盡全力、甚至面臨財務危機的「Project Horizon」,原本被視為解決AI產業「缺電」痛點的指標性專案:

• 繞過電網的「廠網合一」:該園區位於能源豐富的德州二疊紀盆地 (Permian Basin),計畫直接利用當地的天然氣資源,透過航空衍生型燃氣渦輪機進行在地發電 (Behind-the-meter),徹底解決美國電網容量不足的瓶頸。

• 模組化的龐大巨獸:園區規劃在568英畝的土地上分八個階段開發,最終目標是達到2GW規模的供電與運算能力,專門用於訓練擁有多兆參數的新一代人工智慧模型。

如今,失去CoreWeave這個關鍵的基礎設施營運商與硬體後盾,這片廣大的開發用地與發電計畫暫時陷入停滯狀態。

急尋救命稻草:轉向Google等傳統雲端巨頭

不願眼睜睜看著龐大算力藍圖就此胎死腹中的poolside,目前正積極在矽谷尋求備案。

報導指出,poolside已開始與Google,以及其他幾家大型雲端服務供應商進行談判。poolside試圖利用手中已經搞定土地與天然氣能源許可的德州園區作為談判籌碼,希望能找到願意接手這座資料中心開發案、並能提供他們充沛算力資源的新戰略夥伴。

對於近期同樣在積極尋找穩定電力來擴充資料中心的Google而言,poolside手上的天然氣發電園區確實具有一定的戰略吸引力;但要一口氣吞下2GW規模的初期建置成本與不確定的開發風險,即便是科技巨頭也必須經過極度審慎的評估。

NVIDIA展示神經紋理壓縮技術,可將VRAM用量降至2成以下或使畫質提升

作者 Chevelle.fu
2026年4月6日 13:48

NVIDIA於2023年曾介紹稱為神經紋理壓縮(NTC)的技術,不過迄今還未看到有遊戲開發商進行實作,而在NVIDIA於2026年3月的GTC 2026大會的分組會議影片中,NVIDIA在「Introduction to Neural Rendering」的議程再度介紹神經紋理壓縮技術,強調僅需使用15%記憶體容量即可實現相同的品質,或在相同的記憶體占用大幅提升影像品質。

▲神經紋理壓縮是基於機器學習而非生成式AI,每次處理都會得到相同的結果

雖然神經紋理壓縮技術結合AI技術,然而並未使用生成式AI,而是透過機器學習、進行具有確定性的紋理解壓縮;神經紋理壓縮不會直接儲存每個紋理元素,而是將紋理壓縮成緊湊、且經過機器學習得到的潛在特徵,在執行神經紋理壓縮時,GPU的小型神經網路可依據這些特徵重建紋理,不須從記憶體載入大型的紋理資訊,且由於這些經過壓縮的特徵是基於機器學習,處理相同的壓縮特徵資料只會得到相同的結果,與具有不確定性的生成式AI截然不同。

神經紋理壓縮包含兩個元件,包括將原始素材極小化的潛在紋理,以及位置編碼;潛在紋理是把紋理元素視為描述材質屬性的特徵向量,而位置編碼則是把UV座標傳遞至解碼器前提供高頻空間資訊、協助神經網路重建原本在壓縮表欠缺的清晰細節與重複圖案;神經網路紋理壓縮技術的訓練則如同標準神經最佳化循環,由神經網路接收位置編碼的UV座標與潛在紋理進行重建,並將結果與原始紋理比對計算重建耗損,以此收斂至神經網路足以達到原始素材品質為止。

神經紋理壓縮相較傳統紋理壓縮技術可帶來三種好處,一是顯著提高紋理材質的壓縮比、使相同的VRAM容納更多紋理,此外不須拆分或減化資料即可將許多複雜的壓縮材質通道進行壓縮,也由於紋理壓縮資料變小,可減少硬碟占用使檔案縮小、下載更快。

▲在BCn紋理壓縮需佔用高達6.5GB的VRAM
▲改用NTC技術大幅減少至970MB

NVIDIA在展演影片舉了兩個案例,一個是Tuscan Villa,在這個示範若使用傳統的BCn紋理壓縮,將佔用高達6.5GB的VRAM,倘若改用神經紋理壓縮僅需970MB;另一個示範是餐桌,在同樣使用970MB的壓縮檔案,使用神經紋理壓縮不僅可提升紋理的品質,還可避免傳統BCn紋理壓縮技術造成的偽影。

▲以同樣使用970MB,BCn會出現壓縮偽影
▲NTC不僅避免偽影產生,整體影像品質也獲得提升

雖然這項技術是由NVIDIA提出,但畢竟採用的是機器學習技術,只要GPU本身有辦法處理機器學習,無論是AMD、Intel的GPU都能導入這項技術,而且AMD與Intel確實都在強化其GPU的AI加速器技術;尤其隨著預期記憶體報價與供應短時間無法回到常軌,預期主流顯示卡的VRAM將會維持好一段時間不會增加的前提下,加上SSD價格也同樣飆升,有著可降低VRAM使用、遊戲檔案大小的優勢,應該也會促使神經紋理壓縮被許多AAA級遊戲開發商採納。

NVIDIA推出黑科技NTC神經紋理壓縮技術:VRAM佔用爆降85%, 遊戲容量也將大減

作者 達小編
2026年4月7日 01:14

現代 3A 遊戲的材質紋理越來越精細、HDR 與光追等功能相繼上線,也讓傳統顯示卡的 VRAM(顯示記憶體)不 […]

The post NVIDIA推出黑科技NTC神經紋理壓縮技術:VRAM佔用爆降85%, 遊戲容量也將大減 appeared first on 電腦王阿達.

💾

Learn how neural rendering is transforming real-time graphics and simulation by embedding machine learning for massive performance gains and fidelity. This s...

OpenClaw 小龍蝦 Windows 安裝教學:不用 Mac Mini,用虛擬機或是二手舊電腦打造 AI 助理 (Part 2)

作者 jouston
2026年4月7日 10:30

從黃仁勳推出了NemoClaw,Nvidia版本的”小龍蝦”之後,相信開始有一堆人在網路上洗各種小龍蝦有多厲害的文章,號稱可以幫你自動整理行事曆、幫你看Email、幫你找最便宜的購物點之類之類,講得很神。但是你真的知道小龍蝦 OpenClaw 是什麼嗎?本文從 OpenClaw 的起源和它是什麼、一般人要如何控制 OpenClaw 的風險、如何安全且低成本的安裝/使用、到後續的備份及復原一次講完。

在本文中,我們把OpenClaw稱為小龍蝦,台灣常見的用語。小龍蝦AI指的是OpenClaw,一個可以在本地環境中自主執行任務的Agentic AI系統。除了這個之外,常見的還有NanoClaw、IronClaw、OpenFang、LocalAGI、以及NemoClaw等等各式各樣的變種。

OpenClaw 小龍蝦 Windows 安裝教學:不用 Mac Mini,用虛擬機或是二手舊電腦打造 AI 助理 Part 1

在最開始之前,這裡是我們的警語部份:

警語:OpenClaw的主要意圖是快速的完成您給的任務,但是請把關不要把自己的重要帳號、密碼直接明文傳給小龍蝦,本文可以教你如何安全使用,但是使用者自己要自爆,筆者也沒有辦法。

怎麼安裝Ubuntu?


我們在這裡先假設Virtualbox您已經裝好了。有能力安裝VirtualBox的讀者應該不需要再寫說明才是。如果您是真的不會裝,請在留言區敲碗,我可以日後找時間再寫VirtualBox之類的安裝方式。

眼尖的讀者應該一看就知道,筆者目前跑著的OpenClaw並不是Ubuntu,那是因為筆者對於系統的乾淨程度有著比較高的要求,一般人,Ubuntu裝一裝就好,簡單好用,不燒腦,尤其是搞那些WiFi、顯示卡驅動程式的時候。

對於曾經裝過很多Linux的讀者,麻煩往下捲一點,看看下一章基礎資安設定部份即可。

安裝Ubuntu的第一步,請先下載Ubuntu: google “Get Ubuntu”或是https://ubuntu.com/download 就可以找到。

如果您是在Virtualbox裡面安裝的,它支援客體自動化安裝,基本上只要把帳號密碼填進去,就可以安裝完成。如果您有一台空電腦的話,則是請下載Rufus,下載Ubuntu ISO,然後用隨身碟開機。接下來就安裝完成。

唯一要請您注意的,就是這台機器最好把大部分的空間直接切割給 / (root)或是 /home (使用者目錄),因為OpenClaw活動的目錄主要就是  ~/.openclaw/ 裡面,通常這是放在 /home 裡面的。

這個部份搞定之後,我們接下來進行最重要的一步Ubuntu設定:安裝並啟動ssh伺服器。這是我們未來主要的修理管道。晚點會搞定Telegram,那會是我們的溝通和工作管道。

接下來,我們按照順序執行以下命令:

sudo apt update
sudo apt install -y openssh-server curl
sudo systemctl enable ssh

 

▲Virtualbox是個人可以免費使用的虛擬機器軟體,至於WSL不太建議

▲我們這裡安裝Ubuntu Desktop,這樣未來瀏覽器就不需要花力氣再安裝。
 

注意一下OpenClaw的資安根本問題


OpenClaw早期還蠻容易自己跑一跑整組原地自爆的。不過,隨著開發者社群加入,目前逐步愈來愈穩定,甚至還加入了OpenShell (https://vocus.cc/article/69bd415afd897800017e2234) 的一層資安架構,算是終於讓筆者覺得比較能接受了。雖然說為了要多賣點Nvidia GPU,openshell會大量調用本地端LLM大語言模型,但是有了一點隔離架構,比起完全自由到瘋狂的荒野西部式設計,這真的是個長足的進步。

筆者從1月開始開發了 UnifAI (https://github.com/joustonhuang/unifai) 來補強OpenClaw,設計完成藍圖並上傳去GitHub的時間,還比GTC 2026早了幾天。看完GTC時,聽聞NemoClaw要推出,本來還以為前兩個月都白忙一場,結果分析習下,發現OpenShell的設計不錯,而且截稿日時,OpenClaw已經內建OpenShell,所以就大幅降低筆者開發的負擔了。OpenShell有點先天的設計問題,就是缺乏完整系統的煞車、油表和Kill switch,目前的Openshell有點像把手煞車拿來當日常煞車用。講個比較不政治正確的說法,就算掛上了Openshell,所有的金庫和鑰匙都是放在銀行大廳,雖然有警衛、銀行經理、櫃員三層擋在前面,這種設計聽起來方便也好像很安全,但是受過ISO27001:2022內部稽核員的筆者本人,就會不禁皺眉。如果搶銀行的就是被安裝進去的Skill呢?那就會像是一個偷天換日(The Italian Job),直接挖個洞,讓金庫和鑰匙直接撈走。

未來UnifAI正在緊鑼密鼓的開發當中,完整開發測試完成之後,會再寫一篇文章幫忙讀者安裝UnifAI這個完整的煞車、油表、緊急制動開關三合一的外掛安全機制。

在筆者的外掛平台完成開發之前,請讀者在使用時多注意。

▲OpenClaw的資安風險不低,就算是Nvdia黃仁勳的openshell加持之後,仍然擋不住skill的供應鏈攻擊。

 

Arm 自製晶片搶攻 AI 推論市場 Intel、AMD 面臨新威脅

作者 Mash Yang
2026年4月7日 12:42

Arm 正式推出自有品牌「AGI CPU」晶片,採用標準規格瞄準代理式 AI 推論需求,Meta、NVIDIA 等科技巨頭力挺,將衝擊伺服器市場。

在過去三十多年裡,Arm的商業模式一直都是安分守己地扮演「提供設計圖」的角色,將處理器IP與指令集授權給廣大客戶。然而,近期Arm卻打破傳統,正式端出親自操刀設計、步入量產的實體晶片「Arm AGI CPU」,宣示進軍伺服器運算市場。這項舉動不僅象徵Arm從過往提供IP授權 (零件)、CSS運算子系統 (半成品),正式躍升為能直接提供實體晶片 (成品)的供應商,而外界更關注的是,Arm親自下場做晶片,是否會讓長年稱霸資料中心的Intel與AMD面臨生存危機?又為何Meta、NVIDIA等科技巨頭不僅不擔憂,反而大力支持?

從標準規格切入:以PCIe Gen6與DDR5避開HBM短缺瓶頸

要探討這款晶片的影響力,必須先看懂它的硬體設計思維。Arm AGI CPU並沒有一味追求最高端、最昂貴的特殊封裝規格,而是選擇維持採用PCIe Gen6連接埠與DDR5記憶體標準。

這個決策背後,實際上是相當務實的考量。首先,當前AI市場面臨最嚴重的硬體瓶頸之一,便是HBM高頻寬記憶體嚴重短缺與高昂成本。透過採用成熟的DDR5與標準PCIe Gen6介面,Arm AGI CPU能讓企業與雲端業者以更容易、更具彈性的方式佈署及擴充伺服器叢集。這意味資料中心能在不被特定稀缺料件綁死的情況下,以「標準規格」實現快速建置,直接針對當前海量且急迫的AI推論需求,提供一套相對容易入手的解法。

相關連結:

Arm首度推出自有品牌晶片「Arm AGI CPU」,攜手Meta搶攻代理式AI伺服器商機

詳解Arm首款自製晶片「AGI CPU」架構,單機架對應4.5萬組核心、暴力解救「代理式AI」算力瓶頸

Arm將接續推出多款自有品牌晶片,更暗示將佈局對應更多不同需求的CPU運算市場

衝擊Intel與AMD?提供AI推論市場的「額外選擇」

隨著AI發展從單純的模型訓練,走向需要24小時不間斷運作、持續協調任務的「代理式AI」 (Agentic AI),系統所需的推論與資料搬移量呈指數級增長。在這種持續高負載情境下,傳統x86架構處理器功耗過高、容易出現核心爭用與效能衰退的致命傷便容易被放大。

Arm AGI CPU單顆以300W功耗塞入高達136個核心,甚至在液冷機架設計中能達成單機櫃超過4.5萬個核心的驚人密度。這種極致的能效比與高核心密度,確實對Intel與AMD在「AI推論與協調」這塊新興領域造成了直接衝擊。

但這是否代表Intel與AMD將面臨全面潰敗?其實不然。

Arm AGI CPU的定位非常明確,主要是鎖定當前代理式AI的推論與控制節點需求。對於企業內部繁雜的通用運算、傳統雲端服務器架構,以及需要極高單執行緒爆發效能的應用場景,Intel與AMD提供的產品依然擁有無可取代的優勢與生態系底蘊。

因此,Arm的做法與其說是全面取代,不如說是為當前因AI而焦慮的市場,提供了一個兼具更省電、更快佈署優勢的「額外選擇」。這也是為什麼市場對於Arm針對推論需求推出專屬處理器,多半抱持樂觀看待,因為實際上它只衝擊到了特定需求的一部分。

填補算力拼圖,Meta與NVIDIA為何力挺?

Arm跳下來做晶片,最怕的理應是既有客戶反彈,但結果卻是Meta成為首發聯合開發夥伴,包含NVIDIA在內等多家科技巨頭也表態支持。尤其像Meta的線上社群服務平台如Facebook、Instagram等,能藉由AGI CPU多運算核心、低耗電等特性,以更有效率形式運作。而像是AI運算、虛擬化應用服務,甚至雲端服務業者,同樣也能藉由AGI CPU特性、結合Arm軟體框架提升運作速度。

而對於Meta這類積極發展自研AI加速晶片 (如MTIA)的巨頭,他們迫切需要一種極度高效、能管理海量加速器且不會造成過度耗電的「大腦」,而Arm AGI CPU正好完美勝任這個協調者的角色。至於對NVIDIA等業者而言,Arm提供更節能的CPU來搭配AI加速叢集,反而有助於緩解整體資料中心的電力焦慮,讓客戶能把珍貴的電力預算留給主要的運算單元。Arm AGI CPU不僅沒有動到巨頭們的命脈,反而幫他們解決了基礎設施擴張的痛點。

不只是短期目標,Arm的長遠晶片藍圖與野心

這款晶片的推出絕對不是一次性的火力展示。Arm執行長Rene Haas已經明確透露,內部已經在著手準備「Arm AGI CPU 2」,以及後續的「Arm AGI CPU 3」等產品,這份公開的產品發展藍圖,更是強調Arm的自有品牌晶片計畫是一項長遠發展的戰略佈局,而非短期過客。

更引人遐想的是,團隊也正考慮針對AGI CPU以外的用途構思產品。這意味著Arm未來的自有品牌晶片不僅可能跨足更廣泛的CPU運算市場,甚至不排除將觸角延伸涵蓋至GPU產品領域。從幕後的IP授權提供者,到如今走向前台端出自有品牌晶片,Arm接下來希望在市場扮演的,顯然是能提供完整解決方案、更具主導性的硬體規格制定者角色。

蘋果 Mac 終於支援 NVIDIA 外接顯卡 Tiny Corp 推動 AI 算力解放

作者 Mash Yang
2026年4月7日 12:46

蘋果首度核准 Tiny Corp 開發的驅動程式,讓 Mac 使用者可外接 NVIDIA 顯示卡擴充 AI 運算能力,打破 M 系列晶片封閉生態。

在生成式AI算力需求無底洞的當下,封閉的蘋果生態系終於迎來了歷史性破口。眾所皆知,自從Mac產品線全面換成Apple Silicon M系列處理器之後,蘋果便以高度整合的統一記憶體架構為由,徹底取消對eGPU (外接顯示卡)的支援。不過,針對外界期盼已久的外接算力擴充需求,蘋果近期破天荒地核准由AI硬體新創公司Tiny Corp開發的客製化驅動程式。

這意味著搭載M系列處理器的Mac電腦,終於打破了硬體封閉的設計,可以透過外接方式無縫掛載強大的NVIDIA或AMD顯示卡,大幅擴張其AI模型訓練與大型語言模型 (LLM)的推論能力。雖然這套驅動並非為了「打遊戲」而生,但對全球的AI開發者而言,將是改變遊戲規則 (Game-changer)的契機。

打破M系列晶片封閉傳統,免關閉安全機制即可安裝

熟悉蘋果發展史的用戶都知道,過去在Intel處理器時代,Mac使用者能透Thunderbolt介面外接eGPU來擴充圖形效能;但自從轉換至Arm架構設計的Apple Silicon M系列處理器後,蘋果就直接拔除eGPU的使用模式,不僅象徵蘋果取消更早希望藉由eGPU算力加成佈局虛擬視覺應用市場的發展策略,更讓許多對GPU算力有龐大需求的專業用戶感到扼腕。

而此次能促成跨平台硬體支援「死灰復燃」的最大功臣,是曾經與AMD發生過驅動程式爭議、最終由蘇姿丰親自出面協調的AI新創公司Tiny Corp。

Tiny Corp透過官方X帳號發文證實驅動程式獲得蘋果官方批准的消息,但這套驅動並非出自NVIDIA官方之手,而是Tiny Corp為了AI運算量身打造的專案成果。早在去年5月,他們就已經在Apple Silicon架構上進行初步的eGPU連接測試。

如今獲得官方放行,最直接的好處是:Mac使用者終於不再需要為了外接顯卡,而承擔風險去強行關閉macOS系統中關鍵的「系統完整性保護」 (SIP)機制。Tiny Corp強調,現在的安裝過程已經被調整得極為簡單,連開源模型,如千問 (Qwen)都能輕鬆完成安裝與運行。

If you have a Thunderbolt or USB4 eGPU and a Mac, today is the day you've been waiting for! Apple finally approved our driver for both AMD and NVIDIA. It's so easy to install now a Qwen could do it, then it can run that Qwen… pic.twitter.com/daUsyBHh1W

— the tiny corp (@__tinygrad__) April 1, 2026

 

 

Mac缺貨潮與高昂記憶體成本的「另類解藥」

蘋果為何會在堅持數年的M系列晶片封閉硬體策略後,選擇在此刻對NVIDIA eGPU開綠燈?答案與近期Mac高階機型的「算力恐慌」與「產能瓶頸」有關。

隨著OpenClaw等自主AI代理 (AI Agent)應用爆發,能提供龐大記憶體頻寬的高階Mac電腦 (如Mac Studio與Mac Pro)成為許多AI研究者的搶手貨,導致配備大容量統一記憶體的機型陷入嚴重缺貨,交貨期從6天暴增至6週以上。

為了應對成本與產能壓力,蘋果甚至停售配備512GB統一記憶體的頂規Mac Studio,並且將256GB版本售價大幅調漲400美元。在「買不到」與「買不起」的雙重夾擊下,開放eGPU形式掛載NVIDIA顯示卡,不僅能緩解開發者對高規Mac的瘋狂採購,更讓蘋果能在AI軍備競賽中,間接借力NVIDIA的硬體優勢。

專為AI打造,遊戲玩家恐怕得失望

對於目前正販售要價12000美元的「red v2」 (搭載AMD Radeon 9070XT顯示卡),以及要價65000美元的「green v2 Blackwell」頂級AI平台的Tiny Corp來說,這套Mac驅動程式是他們推動「本地端AI普及化」的重要佈局,甚至預告將在2027年推出造價千萬美元的exabox超級AI平台。

但這套驅動程式的底層邏輯,完全是為了運行AI大型模型而設計。因此,如果使用者期待的是「白天用Mac剪片,晚上接上RTX顯示卡遊玩3A等級遊戲」,那麼這項更新可能會讓你失望。因為這套客製化驅動程式並未針對遊戲的圖形渲染進行最佳化與適配。

NVIDIA加速Gemma 4於RTX PC、DGX Spark與Jetson邊際AI模組部署,加速推進代理AI應用

作者 Chevelle.fu
2026年4月8日 11:45

隨著Google釋出再次顛覆AI模型性能的開源AI模型Gemma 4,也吸引許多開發者、AI嘗鮮者前仆後繼於邊際裝置安裝體驗,NVIDIA亦宣布攜手Google將Gemma 4針對NVIDIA GPU最佳化,使Gemma可於搭載NVIDIA RTX GPU的PC、工作站、DGX Spark迷你超級電腦、NVIDIA Jetson Orin Nano邊際AI模組等將效能最大化。

Gemma 4提供E2B、E4B、26B MoE與31B等版本,因應邊際運算至高效能GPU等不同層級具備合適且強大的性能;Gemma 4可支援多種任務,包括推論、程式開發、代理、視覺、影片與音訊能力、交錯式多模態輸入以及支援超過35種語言、並於超過140種語言進行預訓練等特色。

▲E2B與E4B模型可於Jetson Nano等邊際AI裝置提供超低延遲的高效率執行

其中針對高效率、低延遲的邊際推論打造的E2B以及E4B模型可在包括Jetson Nano模組等多種裝置以近乎零延遲完全離線執行,而26B MoE與31B模型則鎖定高效能推論與開發者,尤其適合用於代理AI任務,可於搭載NVIDIA RTX GPU的AI PC及工作站與DGX Spark進行高效率執行。同時Gemma 4亦可相容熱門的OpenClaw,使用者能夠建構個人檔案、應用程式與工作流擷取脈絡的裝置端智慧代理,體現任務自動化。

▲NVIDIA以RTX 5090與Apple M3 Ultra比較強調4種Gemma模型皆可達2.3倍以上的性能差,其中著重原始性能的31B甚至達2.7倍性能差

為了讓NVIDIA GPU用戶可以順利部署Gemma 4,NVIDIA攜手Ollama及llama.cpp合作,用戶可透過下載Ollama執行Gemma 4,或安裝llama.cpp後透過搭配Gemma 4的GGUF Hugging Face checkpoint使用;同時Unsloth也同步提供支援、可透過Unsloth Studio提供的最佳化及量化模型實現高效率的Gemma 4裝置端微調與部屬。

▲DGX Spark可高效率的執行所有規模的Gemma 4模型

透過NVIDIA RTX GPU執行Gemma 4模型可實現極大化的效能,透過Tensor Core可加速AI推論、進而為裝置端實現更高吞吐與更低延遲,同時CUDA軟體堆疊則可確保與主流框架、工具的相容,使模型於Day-0即可高效率執行,也因此,用戶可於具備NVIDIA GPU技術的各式裝置擴展Gemma 4部署,無論是邊際、AI PC、工作站或DGX Spark,皆可在不需大量額外最佳化執行使用。

Anthropic 與蘋果、微軟、Google 等推 Project Glasswing 用 AI 防禦駭客攻擊

作者 Mash Yang
2026年4月8日 20:44

Anthropic 宣布推出「Project Glasswing」倡議計畫,攜手科技巨頭以未公開的 Claude Mythos Preview 模型對抗 AI 驅動的網路攻擊,已揪出數千個系統漏洞。

隨著生成式AI技術的普及,外界對於AI可能帶來的負面衝擊——尤其是淪為駭客工具、引發新型態網路攻擊的擔憂也日益加劇。為了化解這項隱憂,Anthropic正式宣布推出一項名為「Project Glasswing」的全新倡議計畫,將透過AI技術保護全球最關鍵的軟體基礎設施,並且抵禦由AI驅動的惡意攻擊。這項計畫的合作陣容涵蓋AWS、蘋果、Google、微軟、NVIDIA等科技巨頭,不僅是科技圈針對AI資安的一次大集結,更象徵著「用AI對抗AI」的資安防衛戰正式打響。

未公開模型「Claude Mythos Preview」上陣,已揪出數千個漏洞

根據Anthropic的規劃,參與「Project Glasswing」的企業夥伴,將獲准使用一款尚未正式對外發表、名為「Claude Mythos Preview」的通用型AI模型,藉此強化自家的資安防護專案。

Anthropic官方透露這款模型驚人的潛力。目前Claude Mythos Preview已經成功揪出數千個可被駭客利用的系統漏洞,而且這些漏洞的範圍極廣,甚至包含目前市面上每一個主流的作業系統與網頁瀏覽器。Anthropic期望透過主動將這些強大的工具轉向「防禦性用途」,能有效防堵AI被惡意濫用,進而避免對全球經濟與國家安全造成嚴重後果。

除了前述提到的幾家科技巨頭,博通、Cisco、CrowdStrike、摩根大通、Linux基金會,以及Palo Alto Networks等各領域的指標性機構與資安大廠,也都加入Project Glasswing的行列。

堅守道德底線的代價,Anthropic面臨的資安兩難

在眾多前沿AI實驗室中,Anthropic一直以高度關注「AI倫理與安全性」而聞名。不過,這種對道德底線的堅持,也讓他們在商業與政治上面臨了獨特的挑戰,例如今年稍早時候,Anthropic曾因「拒絕移除其服務中的安全防護機制」,以利美國國防部不受限制地使用,而遭到美國國防部祭出報復性制裁,將其列入「供應鏈風險」黑名單,使其在美國政府機構單位推廣使用面臨受限。

不過,即便Anthropic設立嚴格的護欄,其防護網也並非堅不可摧。今年2月時,曾有駭客成功繞過限制,利用Claude模型對墨西哥多個政府機構發動網路攻擊。而這起事件更凸顯AI時代的資安防護急迫性,此次宣布推出Project Glasswing,或許正是Anthropic在認知到「傷害已經造成」後,試圖以亡羊補牢形式重建AI資安秩序的關鍵起步。

極致輕薄!NVIDIA GeForce RTX 5070 以上系列筆電限時回饋升級趁現在,全面釋放遊戲、創作與 AI 效能

作者 癮特務
2026年4月9日 15:50

全台各大通路豪禮齊發  購買指定機種即享豐富限量電競周邊與升級配件

為讓更多玩家與專業創作者體驗 NVIDIA GeForce RTX 50 系列筆電帶來的卓越效能, NVIDIA 宣布,即日起於全台各大指定通路推出限時購機回饋活動。無論是追求極致行動力的輕便設計,或是強悍的 AI 算力,現在正是入手的最佳時機,讓你以超高畫格率暢玩遊戲、更快完成創作專案,並運用本地端 AI 提升工作效率!即日起,消費者於指定通路購買 RTX 5070 以上系列指定筆電,將可獲得限量電競周邊、升級配件、豐富好禮及購物回饋。

20mm 內高效能 RTX 筆電  極致輕薄、致勝效能

GeForce RTX 5070 系列筆電搭載最新的 Blackwell 架構,不僅具備劃時代的全光線追蹤與神經渲染功能,並透過 DLSS 4 多畫格生成技術,讓玩家能在纖薄的機身中體驗流暢的效能與逼真的繪圖效果。

先進的 NVIDIA Max-Q 技術打破了效能與體積的界線,將 RTX 50 系列的強大戰力濃縮於便攜機身中,打造出外型極致輕薄、機身厚度低於 20 mm 的完美筆電。同時,僅需上一代 GPU 一半的功率,電池續航力最高提升達 40% ,讓使用者在學習、創作與遊戲間切換自如,享受高效能的極致輕薄體驗。

對於創作者而言, NVIDIA Studio 大幅提升了創作優勢。搭載第九代 NVIDIA 編碼器與 NVIDIA Broadcast , RTX 5070 系列筆電能將任何空間轉化為居家工作室,並在影片編輯與 3D 渲染方面解鎖變革性的效能。此外,透過包含 Game Ready 和 Studio 驅動程式的 NVIDIA App ,使用者也能輕鬆管理設備並確保創作工作流程的穩定性。

無論是在 PC 打造個人 AI 代理、執行自己的聊天機器人,還是訓練自訂模型, NVIDIA 工具與 RTX 5070 系列筆電皆可讓使用者加速開發與執行 AI 。更重要的是,在本機執行 AI ,可讓資料在裝置上保持私密狀態。

全台指定通路限時購機加碼回饋

即日起至 4 月 19 日,於以下指定通路購買指定 GeForce RTX 5070 以上系列筆電,即享限時專屬(或多重)回饋:

  • PChome24 小時購物:贈送防毒軟體,消費登記再加碼送 2000 P 幣。

  • Yahoo 奇摩購物中心:加碼送 2000 元折價券,登記再送羅技無線電競滑鼠(限量 30 名)。

  • 燦坤:加碼送價值 4,189 元限量大禮包,内含 CYBROG FANG 百變 X 型筆電摺疊支架、大通 165W GaN 氮化鎵快充 4 孔充電組(贈品數量有限,送完為止)。

  • 順發:贈送金士頓 16G 記憶體。

  • 崑碁電腦:加碼送 GaN 氮化鎵 60W 智慧備份電源供應器。

  • 原價屋:加碼送酷碼 NotePal ErgoStand III 散熱座及微軟 Xbox 無線控制器。

  • 欣亞數位:贈送【電競戰力組】EPONTEC 360 度旋轉筆電支架、狼蛛 WIN68 MAX 與酷碼 MM311 無線電競滑鼠。

  • MOMO 購物網:贈送羅技 G502 X Lightspeed 高效能無線電競滑鼠及 PowerPlay2 無線充電鼠墊。

  • 茂訊電腦:加碼送潮流耳罩式耳機。

  • 三井 3C:贈送救世旅能王 20000mAh 行動電源。

  • 彩虹 3C:加碼送第三年延長保固及多功能皮革桌墊。

欲瞭解更多產品細節與活動詳情,請造訪各通路官方網站。

* 以上提及之贈品規格、價值及活動限制,請以各通路銷售網頁標示為準。

中國拍賣出現號稱NVIDIA N1筆電的工程樣品,聲稱2026年內問世、適用平板設計

作者 Chevelle.fu
2026年4月9日 17:25

NVIDIA自2025年就傳出將推出基於Arm CPU架構的N1系列筆電晶片,外解普遍推測是循NVIDIA與聯發科合作的GB10模式所打造,同時產業普遍認為NVIDIA很可能在2026年Computex公布N1系列晶片;中國拍賣平台閒魚出現一張聲稱是NVIDIA N1工程樣品的主板,搭載128GB LPDDR5X統一記憶體,聲稱2026年下半年應該會正式公布。

▲DGX Spark的主機板左側包含ConnectX-7晶片,然而晶片周遭的配置非常類似

從這張主板可看到晶片的周圍與NVIDIA DGX Spark的主機板設計近似,但左側有著特殊的凹槽,推測很可能是因應風扇及散熱模組的空間,明顯與左側具有ConnectX-7網路晶片的DGX Spark主板有一定差異。

閒魚

▲號稱N1晶片工程板的主板可看到晶片周圍與DGX Spark配置類似,但左側有USB、耳機孔與M.2插槽

雖然目前仍未確認上面的N1晶片規格,而且賣家也刻意抹除晶片上刻印的文字,然而從晶片的形狀特徵,N1系列晶片應該高機率是GB10晶片的延伸產物;此外可看到這張工程板有著包括USB插槽、耳機孔與2路的M.2 SSD插槽,也應證這張主板應是針對筆電或平板型態的裝置所設計。

OpenAI 暫停英國 Stargate 資料中心計畫 能源成本與監管成主因

作者 Mash Yang
2026年4月10日 12:26

OpenAI 因能源成本高昂與監管問題複雜,宣布暫停英國 Stargate UK 計畫,此舉恐影響全球主權 AI 擴張策略。

根據彭博新聞報導指稱,OpenAI已經決定暫停其在英國推動的巨型AI基礎設施專案「Stargate UK」。這項原先預計攜手NVIDIA共同協助英國建立「主權AI」 (Sovereign AI)運算能力的重大投資,因為當地高昂能源成本與複雜的監管問題而被迫踩下煞車。這不僅為英國的AI發展願景增加變數,更凸顯AI巨頭在全球擴張算力基礎設施時,所面臨的現實物理資源與地緣法規挑戰。

Stargate UK:打造「主權AI」的關鍵拼圖

OpenAI在去年9月正式對外公開Stargate UK計畫,這項專案建立在該公司幾個月前與英國政府達成的戰略合作基礎之上。

Stargate UK計畫的核心目標,是透過與NVIDIA合作,在英國境內建立強大的資料中心基礎設施。這將使英國政府與當地企業能夠在「本地端」運行頂級的AI模型。對於那些極度重視數據隱私,並且有「資料管轄權」 (Jurisdiction)嚴格要求的特殊政府機關或特定產業應用場景來說,這種將數據與算力留在國內的「主權運算」 (Sovereign computing)能力極為重要。

理想敵不過現實:能源與法規成兩大絆腳石

不過,這項宏大的計畫如今卻宣告停擺。OpenAI在提供給媒體的聲明中坦言,暫停專案的主要阻礙在於「高昂的能源成本」及「監管問題」。

OpenAI強調,他們依然非常看好英國在AI領域發展的巨大潛力,也深知「AI運算」是實現該目標的基石。但官方也明確表態:「我們將持續探索Stargate UK的可行性,但必須等到合適的條件——例如法規環境與能源成本,能夠支持長期的基礎設施投資時,才會繼續推進此專案」。

全球擴張戰略「OpenAI for Countries」是否受阻?

在公布Stargate UK計畫時,OpenAI曾公開表示,他們願意將相同的合作模式提供給其他渴望擴張主權AI能力的國家。這項名為「OpenAI for Countries」的全球倡議,目前正與澳洲、希臘、阿拉伯聯合大公國 (UAE)、斯洛伐克與哈薩克等國家地區進行合作洽談與推動。

目前尚不清楚英國專案的暫停,是否會引發骨牌效應進而影響到上述其他地區的基礎設施佈局,但這確實為這項全球倡議蒙上了一層不確定性。

Meta 追加 210 億美元投資 CoreWeave 確保 AI 算力供應

作者 Mash Yang
2026年4月10日 12:27

Meta 與 AI 雲端基礎設施供應商 CoreWeave 簽署新協議,追加 210 億美元訂單至 2032 年,同步自建資料中心,以雙軌戰略支撐新款大型語言模型開發。

面對人工智慧領域深不見底的算力需求,Meta再次以龐大的資本展現其在這場軍備競賽中不落人後的決心。根據最新消息指出,Meta承諾向AI雲端基礎設施供應商CoreWeave追加高達210億美元的訂單。這筆自2027年一路延伸至2032年的新合約,將疊加在先前已公布的142億美元協議之上。

儘管Meta本身也斥巨資自建資料中心,但在剛發表全新「Muse Spark」模型的關鍵節點上,對外租用搭載巨量NVIDIA晶片的算力農場,顯然已經成為科技巨頭們分散風險、確保研發動能不可或缺的「雙軌」戰略。

自建與外租並行:Meta的算力雙軌戰略

這份稍早公布的新協議,明確界定Meta與CoreWeave之間從2027年至2032年的深度合作關係;而雙方在去年9月達成的142億美元合作協議,則將持續履行至2031年。

CoreWeave作為近年來迅速崛起的AI雲端新星,其資料中心內佈署數以十萬計的NVIDIA GPU,專為AI模型的訓練與推論提供基礎設施。

有趣的是,Meta並非沒有自建能力。就在今年3月,Meta才剛宣布將砸下100億美元在美國德州興建一座超大型資料中心。對此,CoreWeave執行長Mike Intrator接受CNBC採訪時表示:「他們當然可以自己買算力硬體。然而,不知何故,這些有能力自己買晶片的人,依然覺得有必要向我們購買服務,這歸功於我們所交付的產品品質」

資本支出翻倍狂飆,全為支撐「Muse Spark」願景

Meta大舉搜刮算力的背後,是其不斷膨脹的AI研發野心與資本支出。

根據Meta先前公布的財報預測,該公司計畫在今年投入高達1150億至1350億美元的資本支出。這個數字不僅遠超華爾街預期,更幾乎是2025年的兩倍之多。

儘管Meta的核心廣告業務已經從AI技術中獲得實質收益,但在最前沿的基礎模型領域,他們仍面臨來自OpenAI、Anthropic與Google的激烈競爭。為了彎道超車,Meta不僅重金打造Superintelligence Labs團隊,更在稍早才剛風光發表備受矚目的全新大型語言模型「Muse Spark」。

Mike Intrator在受訪時指出,Meta從業界四處網羅頂尖AI人才,而這些熟悉各種基礎設施的專家,最終都認為CoreWeave的環境能讓他們更有效率地發揮實力。

CoreWeave的戰略紅利:擺脫對單一巨頭的過度依賴

對於去年剛完成IPO上市的CoreWeave而言,Meta這張210億美元的超級大單,除了帶來豐厚的營收預期,更重要的戰略意義在於「客戶結構的健康化」。

在2024年,微軟一家客戶就佔據CoreWeave高達62%的營收來源。Mike Intrator強調,在拿下Meta的新合約後,未來將不再有任何單一客戶佔據公司總營收的35%以上。

目前,CoreWeave正處於高速擴張的資本密集期。截至2025年底,其資產負債表上背負210億美元的債務,並且在今年3月為了應付新合約所需的基礎設施,又額外借貸85億美元。儘管槓桿極高,但市場似乎仍買單其商業模式,CoreWeave今年的股價已累計上漲約24%,表現優於大盤。

SiFive 獲 4 億美元融資 估值達 36.5 億 RISC-V 搶攻資料中心

作者 Mash Yang
2026年4月11日 14:08

RISC-V 處理器 IP 龍頭 SiFive 完成 G 輪融資,估值達 36.5 億美元,將投入代理型 AI 晶片開發,力圖打破 x86 與 Arm 架構壟斷。

在人工智慧算力需求持續迭代的浪潮下,開源指令集架構RISC-V正迎來史無前例的爆發契機。而RISC-V處理器IP龍頭企業SiFive於美國時間4月9日宣佈,已經成功完成高達4億美元的G輪超額認購融資,一舉將公司估值推升至36.5億美元 (約合新台幣1180億元)。本輪融資不僅吸引Atreides Management領投,更赫見AI晶片霸主NVIDIA與多家華爾街頂級投資機構入局。

SiFive執行長Patrick Little毫不諱言地指出,隨著雲端巨頭對客製化晶片的渴望,以及「代理型AI」 (Agentic AI)工作負載的興起,SiFive將加倍投資資料中心領域,誓言打破傳統專有架構的長期壟斷。

超大型雲端供應商的集體焦慮:渴望擁有「絕對控制權」的CPU IP

長久以來,資料中心的CPU市場一直被x86架構 (Intel、AMD),以及近年強勢崛起的Arm架構所瓜分。然而,隨著AI基礎設施的規模呈指數級擴張,這些「專有指令集架構」 (Proprietary ISAs)高昂授權費與相對僵化的設計限制,已經逐漸無法滿足超大型雲端供應商 (Hyperscale customers)的需求。

SiFive執行長Patrick Little指出當前市場痛點:「超大型雲端供應商已經明確表態,現在正是引進『開放標準替代方案』的時候。他們共同的訴求,是獲得以IP形式提供、具備高度客製化能力的CPU解決方案」。

相較於購買現成晶片或受限於嚴格授權條款的架構,RISC-V提供更高彈性。它允許雲端巨頭根據自身AI工作負載的特殊需求,自由添加、刪減或修改指令集,進而在競爭激烈的雲端算力大戰中打出差異化。

「代理型AI」崛起,高能效CPU重新成為算力樞紐

這次融資聲明中,SiFive反覆提及一個關鍵詞:「代理型AI」 (Agentic AI)。

過去幾年,生成式AI的訓練與推論主要依賴GPU進行龐大的平行運算。當AI模型演進至代理式AI階段時,系統需要處理更複雜的多步驟任務規劃、工具調用,以及系統級的協調。這類需要高度循序漸進與邏輯判斷的任務,正是GPU與專用加速器的弱項,卻是CPU的強項。

在現有的功耗極限下,若繼續採用複雜且耗電的傳統CPU架構來支撐代理式AI,資料中心的電力系統將面臨極度挑戰。SiFive憑藉RISC-V原生具備的低功耗優勢,並且將純量 (Scalar)、向量 (Vector)和矩陣 (Matrix)運算完美整合至單一標準介面中,成為解決「每瓦效能」瓶頸的最佳解決方案。

雖然Arm架構目前也強調有更高的每瓦效能表現,甚至日前也針對廣泛的代理式AI推出旗下首款CPU產品「AGI CPU」,但其背後的指令集授權費用卻仍會讓整體持有成本疊加。而RISC-V架構則採開源形式,讓實際應用處理器產品能以更合理價格提供。

4億美元銀彈到位:完備軟體生態與NVLink深度整合

在獲得4億美元的資金挹注後,SiFive預計將大幅擴張其全球工程團隊,並將資金精準投入以下三大發展方向:

• 先進硬體研發:加速擴展其高效能的RISC-V CPU、加速器,以及系統IP的產品路線圖,全面滿足資料中心等級的運算需求。

• 軟體生態系建構:過去RISC-V最被詬病的軟體支援問題,目前正在被迅速解決。SiFive將基於目前已有的CUDA、RedHat和Ubuntu移植基礎,加速資料中心軟體的開發與相容性測試。

• 客戶賦能與生態系串聯:緊密配合產業領軍企業的技術標準,特別提及將加速支援NVIDIA NVLink Fusion技術,意味未來的SiFive CPU將能以極高頻寬與NVIDIA GPU進行無縫互連,大幅縮短客戶在AI伺服器叢集上的佈署時間。

NVIDIA API 讓你完全免費呼叫 Minimax M2.7 模型,也能用在 OpenClaw 龍蝦

作者 Rocky
2026年4月13日 14:27

稀宇科技近日開源的 Minimax M2.7 模型,很多人一定都想玩玩看,不僅支援 Agent、工具調用和多任務,更具備「自我演化(Self-Evolution)」的能力,聽起來就相當強,只不過 229B 這麼大的參數量,絕大多數人的電腦一定跑不動。而這篇就要來告訴你一個好消息,NVIDIA 的免費 API 就能呼叫這款 Minimax M2.7 模型,而且是完全免費用,無需填寫信用卡,實測可用於 OpenClaw 龍蝦,下面就來教你怎麼做到。

The post NVIDIA API 讓你完全免費呼叫 Minimax M2.7 模型,也能用在 OpenClaw 龍蝦 appeared first on 電腦王阿達.

NVIDIA為量子電腦開發釋出開源AI模型Ising,結合AI在量子校準、錯誤修正展現突破性效能

作者 Chevelle.fu
2026年4月14日 22:00

雖然GPU擅長的通用加速運算與量子電腦的量子運算是兩回事,不過在目前量子運算仍未達到商用化的階段,GPU卻能透過模擬協助開發量子處理器、量子運算應用以及作為量子校準及糾錯,NVIDIA亦針對量子運算釋出多款專業工具;隨著AI技術發展,NVIDIA宣布推出全球首款應用於量子電腦開發的AI模型Ising,利用AI為量子處理器的校準及量子錯誤修正解碼帶來突破性的表現,同時Ising亦是一款開源模型,可幫助全球量子企業、學術機構與實驗室加速量子處理器開發。

NVIDIA已將NVIDIA Ising納入NVIDIA開源模型產品組合,可自GitHub、Hugging Face與build.nvidia.com取得相關開放資料。

透過AI解決量子-經典混合運算最大挑戰

▲透過AI技術解決量子運算的校準與錯誤修正解碼挑戰

NVIDIA指出量子運算邁向大規模商用,量子處理器的校準與量子錯誤修正必須有重大的突破,而AI技術將會成為這兩項關鍵因素獲得顯著提升的關鍵,NVIDIA希冀透過開源的Ising幫助開發者在完全掌控其資料與基礎設施的同時鍵夠高效能AI。

同時NVIDIA也提供包括量子運算工作流程與訓練資料的實作指南,並可搭配NVIDIA NIM微服務,使開發者可透過最少的設定針對特定硬體架構與使用情境微調模型,並可在研究人員的本地系統執行,不須透過雲端處理,進一步確保資料的保護。

開原始開發者獲得更多掌控權

Ising的命名源自大幅簡化對複雜物理系統理解的重要數學模型,透過NVIDIA Ising模型提供高效能且可擴展的工具,能用於量子錯誤修正與校準,解決建構混合量子-經典系統最關鍵的挑戰;NVIDIA Ising模型驅動全球最頂尖的量子處理器校準,使研究人員能活用量子電腦解決更大規模且複雜的問題。

▲NVIDIA Ising與NVIDIA先前釋出的量子軟硬體工具相輔相成

同時NVIDIA Ising與NVIDIA用於混合量子-經典運算的NVIDIA CUDA-Q平台相輔相成,並整合NVDIIA NVQLink、QPU-GPU硬體互連,可支援即時控制與量子錯誤修正,建構一套完善的工具組合。

兩大模型為量子運算帶來突破

▲Ising目前提供Calibration視覺模型以及Decoding3D捲積神經模型

NVDIA Ising包含兩項關鍵模型:Ising Calibration與Ising Decoding;Ising Calibration是可快速解讀及回應量子處理器測量結果的視覺模型,可透過AI代理自動化執行持續校準,並將所需時間自數天縮短為數小時;Ising Decoding則是一項3D捲積神經模型,透過兩種針對速度或準確度最佳化的版本在執行量子錯誤修正時提供即時解碼。

已獲全球研究、學術與量子企業採用

▲包含中央研究院也已經導入Ising Celibration探索量子運算

Atom Computing、中央研究院、 EeroQ 、Conductor Quantum、 費米國家加速器實驗室 、哈佛大學約翰.保爾森工程與應用科學學院、Infleqtion、IonQ、IQM Quantum Computers、 勞倫斯伯克利國家實驗室先進量子測試平台 、Q-CTRL以及英國國家物理實驗室(NPL)均已導入Ising Calibration。

Ising Decoding則獲得包括康乃爾大學、 EdenCode 、Infleqtion、IQM Quantum Computers、Quantum Elements、桑迪亞國家實驗室、SEEQC、加州大學聖地牙哥分校、加州大學聖塔芭芭拉分校、芝加哥大學、南加州大學與延世大學導入。

NVIDIA 推出開源量子 AI 模型 Ising 系列 解決量子雜訊難題

作者 Mash Yang
2026年4月15日 13:12

NVIDIA 於世界量子日宣布推出全球首款開源量子 AI 模型系列「NVIDIA Ising」,透過 AI 技術解決量子校準與錯誤更正問題,將校準時間從數天縮短至數小時。

為了響應世界量子日 (World Quantum Day),NVIDIA今日 (4/17)宣布推出全球首款專為建構量子處理器 (QPU) 所設計的開源人工智慧模型系列——「NVIDIA Ising」。NVIDIA強調,量子運算要邁向百萬級量子位元 (Qubit)的實用化階段,最大的挑戰在於解決量子雜訊問題,而量子工作負載本質上就是「AI工作負載」,因此必須仰賴AI來驅動解碼、控制與錯誤更正。

突破人工校準瓶頸:Ising Calibration (量子硬體校準)

現今的量子位元極度容易受到雜訊干擾,加上物理特性並不穩定。傳統上,即便只是校準50到100個量子位元,依然需要物理專家耗費數天的時間進行手動微調,這在擴展至數千或數百萬個量子位元時是完全不切實際的。

為了解決這個問題,NVIDIA推出名為「Ising Calibration」開源模型。

• 視覺語言模型架構:這是一款參數規模達350億的視覺語言模型 (VLM),能夠直接讀取QPU的測量數據,並且自動進行校準。

• 輕量且高效:相較於現有替代方案,其模型體積縮小15倍,卻能在包含6項指標的校準基準測試中達到世界最佳效能表現。

• 大幅縮短時間:能將原本需要人類專家花費「數天」的校準時間,大幅壓縮至「數小時」內完成。

▲NVIDIA推出名為「Ising Calibration」開源模型,能將原本需要人類專家花費「數天」的量子校準時間,大幅壓縮至「數小時」內完成

強化錯誤更正效率:Ising Decoding (量子解碼)

在量子錯誤更正 (QEC) 方面,系統需要在極短的時間內處理高達TB級別的龐大資料,這對運算速度與準確度提出嚴苛的要求。

「Ising Decoding」採用卷積神經網路 (CNN)架構,專為量子錯誤更正而生。NVIDIA針對不同的應用情境提供了兩種變體模型:

• 追求極致速度:針對速度優化的版本,其運作速度比目前的業界標準 (Pine-marten)快上2.5倍。

• 追求極致精準:針對準確度優化的版本,其準確度更是現有標準的3倍。

除此之外,該模型在訓練時所需準備的資料量也大幅減少10倍,這對於資源昂貴的量子研究環境而言是一大福音。

▲「Ising Decoding」採用卷積神經網路 (CNN)架構,專為量子錯誤更正而生▲NVIDIA認為量子運算工作流程,實際上與AI運作流程相同

擁抱開源生態系,結合NVIDIA既有量子平台

NVIDIA Ising並非封閉系統,而是一個完整的「開源模型家族」。NVIDIA不僅釋出模型本身,還同步提供微調 (Fine-Tuning)、量化 (Quantization)、推論工作流程的指引內容 (Cookbook),以及相關的開源研究論文與基準測試數據,讓生態系夥伴與研究人員能針對各自特製的硬體進行客製化與微調。

▲NVIDIA不僅釋出模型本身,還同步提供微調 (Fine-Tuning)、量化 (Quantization)、推論工作流程的指引內容 (Cookbook),以及相關的開源研究論文與基準測試數據,讓生態系夥伴與研究人員能針對各自特製的硬體進行客製化與微調

同時,NVIDIA Ising也深度整合NVIDIA Open Quantum Platform的既有資源,包含Quantum-GPU平台CUDA-Q、提供GPU加速運算的cuQuantum,以及用於低延遲整合的NVQLink參考架構。透過cuQuantum,即便是尚未取得昂貴實體量子硬體的開發者,也能夠過GPU模擬環境來進行合成數據的訓練與開發,進一步實現量子運算的民主化。

目前,NVIDIA Ising已經獲得量子運算生態系的廣泛採用,包含勞倫斯伯克利國家實驗室、哈佛大學、IonQ、IQM、Atom Computing等眾多頂尖研究機構與企業,都已經將Ising模型導入其校準與解碼的研發工作流程中。

小結:NVIDIA正以AI優勢,奠定未來混合超級運算的軟體底層

面對量子運算這項充滿不確定性的前瞻技術,NVIDIA正利用其在AI領域的絕對主導地位,試圖解決量子硬體發展中最棘手的「控制」與「除錯」問題。透過將Ising模型開源,NVIDIA實質上正在為未來的「量子-GPU 混合超級運算」建立一套難以撼動的基礎軟體標準與生態系。

▲NVIDIA正利用其在AI領域的絕對主導地位,試圖解決量子硬體發展中最棘手的「控制」與「除錯」問題。透過將Ising模型開源,NVIDIA實質上正在為未來的「量子-GPU 混合超級運算」建立一套難以撼動的基礎軟體標準與生態系

NVIDIA RTX 5060 Ti 與 RTX 5060 傳也將推出 9GB GDDR7 版本,多 1GB 記憶體但頻寬縮水 25%

作者 Rocky
2026年4月15日 14:24

之前我們曾報導過,NVIDIA 正在準備推出搭載 9GB GDDR7 記憶體的 RTX 5050 新版本,這個記憶體升級看起來不僅限於入門款,根據近日的最新爆料,RTX 5060 Ti 和 RTX 5060 也將推出 9GB GDDR7 記憶體的新版本,而且細節比先前更加明確,包括記憶體配置方式、匯流排寬度的改變,以及預計的推出時程。不過跟 RTX 5050 的情況一樣,雖然多了 1GB,但也有一個不能忽視的缺點:頻寬將縮水。

The post NVIDIA RTX 5060 Ti 與 RTX 5060 傳也將推出 9GB GDDR7 版本,多 1GB 記憶體但頻寬縮水 25% appeared first on 電腦王阿達.

❌
❌