普通视图

发现新文章,点击刷新页面。
昨天以前首页

別讓 AI 模型吃光 IT 預算!拆解 AT&T 降本 90%、每日處理 270 億 Token 的秘訣

作者 廖紹伶
2026年3月2日 18:08
別讓 AI 模型吃光 IT 預算!拆解 AT&T 降本 90%、每日處理 270 億 Token 的秘訣

當企業真正將生成式 AI 推向大規模營運時,成本問題開始浮上檯面。根據《VentureBeat》報導,美國最大電信商 AT&T 每天需要處理高達 80 億 個 token 的 AI 任務規模,而 AT&T 資料長 Andy Markus 與他的團隊意識到,將所有資料都透過大型推理模型處理既不現實也不經濟。

這個壓力促使 AT&T 在打造內部生成式 AI 助理 Ask AT&T 時,徹底重寫整個 Orchestration(協作編排)架構,從依賴單一大型模型,轉向多代理與多模型協作系統。

這麼做的成效是顯著的。Markus 向《VentureBeat》表示,新架構讓 AI 成本最多降低 90%,同時處理能力反而大幅提升,目前每天可處理多達 270 億個 token,是短短數月前的三倍以上。AT&T 是怎麼辦到的?

從單一大模型,轉向多代理「指揮官+執行者」架構

AT&T 的核心轉變,是建立一套多代理 AI 系統。這個系統採用 LangChain 框架,讓大型語言模型扮演「超級代理(super agent)」,負責決策與指揮,而實際執行任務的,則是多個較小型、專門化的「執行者代理(worker agents)」。這些較小的語言模型專注於特定任務,例如文件處理、資料庫查詢或影像分析。

Markus 表示,「我相信 AI 代理的未來,是非常多的小型語言模型(SLM),」他說,在特定領域任務中,小模型的準確度「幾乎與大型模型一樣,甚至更高」,但成本和速度卻明顯更具優勢。

《PYMNTS》也指出,小型語言模型參數較少,但速度更快、成本更低,且在特定產業場景中,表現甚至能超越大型語言模型(LLM)。此外,NVIDIA 研究也發現,小模型在企業環境中更具實用性與獲利能力,因為它們能在不需要昂貴基礎設施的情況下大規模部署。

不過度建設,使用可互換、可選擇的模型

根據《VentureBeat》,AT&T 並不採取「所有東西都從零開始打造」的策略,Markus 表示,他們更傾向使用可互換(interchangeable)、可選擇(selectable)的模型,並且「不會重新發明已經商品化的技術」。隨著產業研發的 AI 功能逐漸成熟,他解釋,公司也會淘汰自研工具,改用現成的商用解決方案。

在自研代理式 AI 工具方面,Markus 團隊使用 LangChain 作為核心框架,並透過標準的檢索增強生成(RAG)與其他內部演算法對模型進行微調,同時與微軟密切合作,採用這家科技巨頭的搜尋功能作為向量資料庫。

不過 Markus 強調,重要的不是為了使用代理式 AI 或其他先進技術而將其套用到所有場景。「有時候我們會把事情搞得太複雜,甚至過度設計解決方案。」相反地,開發者應該先思考某個工具是否真的需要代理式架構,例如,如果使用更簡單的單輪生成式 AI,能達到什麼樣的準確率?是否可以將任務拆分成更小的部分,讓每個部分都能更精準完成?

他指出,準確率、成本與工具回應速度應是核心原則,「即使解決方案變得更複雜,這三個基本原則仍然為我們提供了重要的方向。」

這套架構也被用來建立 Ask AT&T Workflows,讓超過 10 萬名員工能建立自己的 AI 代理,自動化日常工作。Markus 指出,超過一半員工每天使用這套系統,部分使用者生產力提升高達 90%。例如,網路工程師可以讓 AI 代理自動診斷網路問題、開立維修單、撰寫修復程式,甚至生成後續報告,而人類只需負責監督整體流程。他也強調,即使 AI 可以自主執行,人類仍會提供必要的監督與控制。

用「AI 驅動程式設計」取代 Vibe Coding

Markus 表示,這種將工作拆解為更小、專用模組的工程方法,如今也正在透過他所稱的「AI-驅動程式設計(AI-fueled coding)」改變 AT&T 自身的程式開發方式。

他將這個過程比喻為 RAG:開發人員在整合開發環境中採用敏捷開發方法,並搭配「特定功能導向」的建構範本,這些範本會定義程式碼應該如何互動。如此一來,最終產生的程式碼不是鬆散、尚未完成的狀態,而是接近正式上線等級。Markus 指出,AI 驅動程式設計消除了 Vibe Coding 中常見的大量來回修改與迭代,這種方式正在重新定義軟體開發週期,甚至非技術團隊也能參與。

企業 AI 真正的競爭核心,轉向編排能力

AT&T 的經驗,反映出企業導入生成式 AI 正在經歷一個關鍵轉變。過去兩年,產業競爭的焦點集中在模型本身,企業與科技公司不斷追逐更大的模型規模、更強的推理能力,以及更亮眼的測試表現。然而,當生成式 AI 真正進入企業日常營運後,新的瓶頸逐漸浮現:成本、效率,以及系統如何穩定運作,開始比模型本身的能力更加關鍵。

OpenAI 近期推出專門管理企業 AI 代理的平台 Frontier,也顯示企業正在面臨相同挑戰。隨著企業內部 AI 任務數量快速增加,如何統一管理這些 AI 代理、控制成本並確保穩定運作,正成為企業導入生成式 AI 能否成功的關鍵。

探索主動功能模型如何降低 R&D 工程師除錯成本!立即報名 3/10-12【ADI 次世代訊號鏈設計量測工作坊】

*本文開放合作夥伴轉載,資料來源:《VentureBeat》《PYMNT》《AXIOS》,首圖來源:Unsplash

奧特曼罕見發文認錯:OpenAI 如何在軍方大單與公眾信任間走鋼索?

作者 廖紹伶
2026年3月3日 13:05
奧特曼罕見發文認錯:OpenAI 如何在軍方大單與公眾信任間走鋼索?

美國國防部與 AI 公司 Anthropic 的合作談判正式破裂後,風波並未平息。OpenAI 隨即介入接手相關合作,但在外界質疑聲浪中,該公司與五角大廈的協議也迅速面臨合法性與公民自由保障的壓力。外界強烈質疑 OpenAI 妥協於軍方的「任何合法用途」條款,若不能妥善解決 AI 被用於大規模國內監控的擔憂,這份協議的前景也岌岌可危。

《AXIOS》報導,OpenAI 正與美國國防部修改 AI 合約內容,新增更明確的條款,以防止其系統被用於對美國人民進行大規模國內監控。OpenAI 執行長奧特曼更罕見在社群平台 X 上發文承認,先前過於倉促推動交易,是一次錯誤判斷。

Anthropic 與五角大廈決裂,OpenAI 火速補位

這場爭議的起點,是五角大廈要求 AI 公司同意允許其技術用於所有合法用途。Anthropic 認為 AI 技術目前尚未發展成熟,因此拒絕簽署未明確排除「大規模國內監控」與「完全自主致命武器」的合約條款,雙方談判破裂。

根據《華爾街日報》報導,美國國防部長 Pete Hegseth 與 Anthropic 執行長 Dario Amodei 在 2 月 24 日的會面中出現明顯裂痕。Hegseth 明確表示,任何私人企業都無權限制軍方使用技術的方式。隨後,五角大廈威脅將 Anthropic 列為「供應鏈風險」,甚至可能依據《國防生產法》強制干預。

就在僵局升高之際,OpenAI 迅速宣布與國防部達成協議,將其模型部署於機密環境之中。奧特曼也表示,OpenAI 最重要的兩項安全原則是禁止在國內大規模監控,以及人對武力使用負有責任,包括對自主武器系統的使用。但這讓人們開始質疑奧特曼說法:五角大廈先前才明確拒絕私人企業限制其技術用途,為什麼會忽然同意 OpenAI 的紅線呢?

《The Verge》指出,OpenAI 的合約核心仍建立在「符合法律」的前提上。但過去數十年,美國情報機構曾在合法框架下執行大規模監控行動,例如 Edward Snowden 揭露的 PRISM 計畫。法律本身並未明確禁止所有形式的批量資料蒐集。

OpenAI 前政策主管 Miles Brundage 在社群平台上質疑,OpenAI 可能實際上讓步,卻對外包裝成未妥協。加州大學柏克萊分校研究學者 Sarah Shoker 也指出,合約中使用「unconstrained」、「generalized」等修飾語,並非全面禁止,而是保留彈性解釋空間。

此外,批評者指出,即便 OpenAI 部署分類器(classifiers)與安全機制,這些技術工具無法判斷某個單次查詢是否屬於大規模監控行動的一部分。換言之,只要政府認定行為「合法」,技術層面的限制可能難以真正發揮作用。

根據市場研究機構 Sensor Tower 的估計,在 OpenAI 宣布接手合約後的週末,應用程式 ChatGPT 的卸載量大幅增加了近 300%。公眾與內部員工的強烈反彈迫使 OpenAI 必須重新審視合約內容。

新條款明確排除「刻意監控美國人」

《AXIOS》引述知情人士說法報導,OpenAI 主動接觸國防部,提出替代方案。奧特曼與國防部研究與工程副部長 Emil Michael 重新協商條款,希望在維持既有法律框架下,納入安全保障語言。

根據《AXIOS》看到的合約修正內容,新條款明確寫入:AI 系統不得「刻意用於對美國公民或國民進行國內監控」,包括透過購買或使用商業取得的個人資訊。這項修正特別將「商業取得的個人資訊」納入限制範圍。此前,外界擔憂,即便未直接監控私人資料,政府仍可能購買定位資料、瀏覽紀錄或金融資料進行分析。

奧特曼稍早在一則對員工發布的內部貼文中表示:「我認為我做錯的一件事,是不該急著在週五就對外發布這項消息。」他之後也將該貼文分享到 X 平台。他寫道:「這些議題極其複雜,需要清楚的溝通。我們當時的確是想要降溫局勢,避免更糟的結果,但這次的做法看起來反而像是機會主義且處理草率。對我來說,這是一個寶貴的學習經驗,尤其是在未來面對更高風險決策時。」

Here is re-post of an internal post:

We have been working with the DoW to make some additions in our agreement to make our principles very clear.

1. We are going to amend our deal to add this language, in addition to everything else:

"• Consistent with applicable laws,…

— Sam Altman (@sama) March 3, 2026

核心問題浮現:誰決定 AI 的使用邊界?

《華爾街日報》指出,這場衝突不僅是企業與政府的談判問題,更觸及一個根本問題:在 AI 成為國家安全基礎設施的過程中,誰應該決定技術的使用邊界?

Anthropic 主張在合約中明確寫入紅線,即便未來法律或政策變動,也不得跨越。而 OpenAI 則選擇在既有法律框架內行動,並透過技術與合約補充條款加強保障。

而當 AI 公司如今正從消費型新創,轉型為國家安全合作夥伴,《TechCrunch》認為,產業與政府雙方似乎都尚未準備好應對這種新關係。

短期內,OpenAI 可能避免了與政府正面衝突,也獲得了國防部的合作機會。但長期而言,若 AI 技術真的被用於具爭議的監控或軍事行動,公眾信任是否還能維持,仍是一個未解問題。

*本文開放合作夥伴轉載,資料來源:《AXIOS》Sam Altman《WSJ》《Bloomberg》《The Verge》《TechCrunch》《Platformer》,首圖來源:WEF Forum

AI 正在重寫軍事情資規則:當工程師能自製準情報系統、中國企業能追蹤美軍部署

作者 廖紹伶
2026年3月3日 19:21
AI 正在重寫軍事情資規則:當工程師能自製準情報系統、中國企業能追蹤美軍部署

一般大眾接觸到的戰爭訊息,過去常被濃縮成幾張衛星照、幾段模糊影片,真正的情資多半仍鎖在軍方、情報圈與昂貴系統裡,但在美國與以色列對伊朗發動「史詩之怒」行動(Operation Epic Fury)前後,一連串案例把同一件事推到檯面上:AI 與商用衛星影像技術的深度結合,正以前所未有的速度打開軍事情報的大門,讓戰略情資變得更易取得與解讀。

AI 助攻,工程師單槍匹馬打造間諜衛星模擬器

在這場衝突爆發時,Google 前產品經理 Bilawal Sidhu 運用了 Gemini 3.1、Claude 4.6 與 Codex 5.3 模型打造了多個 AI 代理,在一個週末自製出一套名為 WorldView、可在瀏覽器開啟的間諜衛星模擬器。Sidhu 稱,他不需要機密資料授權,卻能用「情報分析員」的視角觀看世界。

他把 Google 的 Photorealistic 3D Tiles 疊上多種即時資料源與視覺化效果:包含 OpenSky Network 的即時航班位置、ADS-B Exchange 的軍機追蹤訊號、CelesTrak 的衛星軌道資料、OpenStreetMap 的城市車流,以及可被定位並投影到 3D 城市模型上的公共 CCTV 影像。再加上夜視、FLIR 熱成像、CRT 掃描線等「軍規顯示語言」的 shader,讓公開資料披上近似機構情資系統的視覺外衣。

God's eye view 24-hour replay of Operation Epic Fury.

The Iran strikes kicked off and I set an AI agent swarm loose to record every OSINT signal I could find before the caches cleared. Built a full 4D reconstruction in WorldView.

I can scrub through minute by minute and watch… pic.twitter.com/W8NnqSPxVY

— Bilawal Sidhu (@bilawalsidhu) March 1, 2026

值得關注的是,這套系統背後的程式碼並非他手工撰寫,而是透過語音筆記、截圖描述各種功能,然後直接進入終端機輸入到多個同時運行的 AI 代理之中,並引導 AI 代理產出最終成果。換言之,這是一個 Vibe Coding 專案。透過 AI 協助,Sidhu 一個人就能處理過去需要整間情報分析室才能消化的龐大數據,即時重建了中東空域封鎖、GPS 干擾等軍事動態的 3D 視覺化場景。

「我的目標基本上是想像,如果 Google Earth 和 Palantir 生了個孩子會是什麼樣子。」Sidhu 這套系統在社群媒體引發熱議,甚至被認為擾動了國防科技市場的權力結構,更引來 Palantir 共同創辦人 Joe Lonsdale 的回應。Lonsdale 表示,如果認為靠 Vibe Coding 就能成為像 Palantir 一樣的硬科技資料基礎設施公司,「代表你根本不了解它們的運作方式,」但他也承認,國防領域是受到 Vibe Coding 影響最大的市場之一。

WorldView 引發熱議,不只在於它用了多少公開資料,而是它把分散的訊號融合成一個可操作的情資介面。同樣的邏輯,也出現在另一條戰線上:中國公司未必掌握最高階的偵察資產,但也能有效率地把商用影像轉譯成可被傳播、解讀的資訊戰敘事。

中國企業利用歐美商業衛星資料,追蹤美軍部署

一家名為覓熵科技(MizarVision)的中國公司,在美軍發動襲擊前,連續發布了多張詳細標註美軍在中東各地部署的衛星影像,甚至指認出 11 架隱形戰機 F-22 部署在以色列的奧華特空軍基地等。

這起事件最初被解讀為中國情報機構對伊朗的暗中協助,但根據《Pekingnology》報導,北京大學南海戰略研究中心主任、研究教授胡波分析,這些高解析度影像實際上來自美國與歐洲的商業衛星,如 Vantor 與 Planet,而非中國的衛星。因此覓熵科技展現的,是其如何利用 AI 驅動的物件偵測技術,快速分析這些衛星影像、計算軍機數量、追蹤防空飛彈陣地。

這突顯,當高解析度商業衛星影像唾手可得時,擁有強大 AI 分析能力就能輕易將這些商用數據轉化為具備戰略價值的軍事情報。

武器系統的低成本與高精準度:美無人機疑與衛星協作

除了情報蒐集,AI 與衛星技術的結合也正在重塑武器系統的運作方式。在此次行動中,美軍首度投入了名為 LUCAS 的低成本自殺式無人機。這款無人機是仿造伊朗見證者-136(Shahed-136)逆向工程製造,造價僅約 35,000 美元。更引人關注的是,《DroneXL》報導,俄羅斯軍事分析師在美軍公布的照片中,發現 LUCAS 疑似整合了 Starlink。

這則消息在社群媒體 X 擴散後,SpaceX 執行長馬斯克迅速回應表示,把 Starlink 終端用於武器系統違反商業服務條款,並提及另有一個名為星盾(Starshield)的獨立網路,由美國政府營運,不受 SpaceX 控制。

無論是工程師運用 AI 製作出間諜衛星模擬器、中國企業以 AI 與商業衛星影像分析美軍戰前部署,或美軍首次投入的低成本 LUCAS 自殺式無人機,可以看見 AI 正把軍事情資從稀缺的機構能力,推向可被開源工具捕捉、可被平台重建、可被 AI 代理系統分析的工程化流程。

這種變化帶來的風險,在於當情資被快速結構化並包裝成易於傳播的內容,它可以在開打前就改變心理環境與決策壓力,形成以曝光作為威懾、以可視化作為資訊作戰的手段。對企業與開發者而言,Sidhu 的案例像是一個技術里程碑;但對國家安全而言,這同時意味著監控能力的外溢、資料市場的灰色地帶、以及資訊操作的規模化門檻都在下降。軍事情資的大門正在被打開,而打開它的,往往不是單一國家的祕密武器,而是全球化的商用供應鏈與 AI 工具堆疊出的新常態。

*本文開放合作夥伴轉載,資料來源:Bilawal Sidhu 1Bilawal Sidhu 2《Digi.in》《Spark Solidarity》《Pekingnology》《中央社》《Fortune》《DroneXL》《SCMP》,首圖來源:Bilawal Sidhu 2

要取代微軟 GitHub?OpenAI 傳正在開發自己的程式碼庫

作者 廖紹伶
2026年3月4日 12:33
要取代微軟 GitHub?OpenAI 傳正在開發自己的程式碼庫

AI 巨頭 OpenAI 的產品版圖可能再次擴張,而這次目標直指合作夥伴微軟的重要服務。外媒報導,OpenAI 正在開發一套新的程式碼庫(code repository),目標是降低對微軟 GitHub 的依賴,甚至可能成為開發者與 AI 代理共同協作的新平台。

根據《The Information》報導,這個專案仍處於早期階段,短期內不會推出,但 OpenAI 內部已經開始討論未來是否對外銷售這項服務。如果成真,這將使 OpenAI 與其最大投資者之一的微軟出現更直接的產品競爭。

GitHub 服務中斷頻繁,成自建平台導火線

OpenAI 啟動這項計畫的一個重要原因,是近期 GitHub 服務中斷次數增加。知情人士透露,OpenAI 工程師與其他企業客戶一樣,近幾個月頻繁遭遇 GitHub 當機,導致程式碼無法更新或團隊協作受阻。這些故障時間從幾分鐘到數小時不等,對開發流程造成干擾。

GitHub 官方也曾承認平台穩定性仍需改善。例如今年 2 月的一起事故,GitHub 服務因 Azure 底層系統問題中斷長達 4 小時;另一場約 3 小時的故障則與服務配置變更有關。事後 GitHub 在事故報告中坦言,目前平台的可用性尚未達到預期標準。

隨著 AI 開發節奏越來越快,這類中斷對大型工程團隊而言,影響也越來越大。

若開放給客戶使用,OpenAI 將直接與微軟競爭

知情人士指出,OpenAI 目前仍未決定這套類似 GitHub 的產品是否會對外推出,也可能僅供內部工程團隊使用。但 OpenAI 內部已討論過另一種可能:將這套程式碼庫與其 AI 寫程式代理(coding agents)整合,並作為新產品提供給開發者。

《The Information》指出,如果這項構想落地,開發者將能在同一平台上同時與 AI 代理、人類工程師協作,例如讓 AI 自動建立功能、除錯或重構程式碼。這樣的設計,可能比傳統程式碼平台更適合 AI 時代的軟體開發流程。

但這也意味著 OpenAI 將與 GitHub 正面競爭,而 GitHub 正是微軟旗下最重要的開發者平台之一。微軟自 2018 年收購 GitHub 以來,已將其打造成全球最大的程式碼協作平台。

AI 正改變程式開發流程

這項傳聞也反映了 AI 對軟體開發方式的巨大影響。近年來,包括 Meta、微軟與 Amazon 在內的大型科技公司都表示,公司內部相當比例的程式碼已由 AI 生成。GitHub 旗下的 Copilot 是最早進入市場的 AI 寫程式工具之一,但隨著 OpenAI 與 Anthropic 推出更強大的 AI 寫程式代理,其市場領先優勢正逐漸縮小。

這些新一代 AI 工具甚至能從零開始建立完整應用程式,或自動修復現有程式碼,降低人類工程師的參與程度。在這種趨勢下,未來的開發平台可能不只是程式碼儲存庫,而是人類與 AI 共同工作的協作環境。

《Reuters》表示無法獨立查核《The Information》的消息,而 OpenAI、GitHub 和微軟尚未回覆該報的置評請求。

大型科技公司自建程式碼庫其實很常見

事實上,像 OpenAI 這樣的大型科技公司自行開發程式碼庫並不罕見。Google 與 Meta 早已建立自己的內部程式碼系統,例如 Google 的 Piper 和 Meta 的 Sapling,用來處理龐大的工程規模。不過這些系統通常只供內部使用,並未對外推出產品。

知情人士告訴《The Information》,即使 OpenAI 最終只將這套平台用於內部,GitHub 失去 OpenAI 這個客戶對其商業影響仍有限。不過,這件事仍象徵著 AI 產業權力結構可能出現新的變化。

探索主動功能模型如何降低 R&D 工程師除錯成本!立即報名 3/10-12【ADI 次世代訊號鏈設計量測工作坊】

*本文開放合作夥伴轉載,資料來源:《The Information》《Reuters》,首圖來源:Unsplash

Gemini 將進駐「健康存摺」App!Google 台灣總經理點台灣最迫切挑戰

作者 廖紹伶
2026年3月4日 19:21
Gemini 將進駐「健康存摺」App!Google 台灣總經理點台灣最迫切挑戰

AI 時代來臨,什麼是台灣目前最迫切、又能用 AI 技術協助解決的社會挑戰?Google 認為是 AI 醫療。Google 台灣今(4 日)舉辦在台 20 週年交流會,宣布在台灣佈局的下一章為 AI 醫療健康,同時宣告與衛生福利部健保署合作,將在今年 3 月於千萬台灣人使用的「健康存摺」App 中,推出由 Gemini 驅動的衛教助理,並在使用者明確授權同意的前提下,根據臨床實證提供個人化的健康建議。

Google 台灣總經理林雅芳表示,Google 希望將資源投入在解決當前最迫切、最重要的需求上,而台灣已經邁入超高齡社會,伴隨高齡化而來的是慢性病對民眾健康的威脅越來越大,成為亟需處理的課題。她也強調,面對這些醫療與健康照護的挑戰,光靠寫程式是沒有辦法解決的,而是要結合「Team Taiwan」(台灣團隊)的力量,將有溫度的照護和最先進的 AI 技術相連,才能有效應對。

根據衛福部統計,慢性病是目前台灣影響人口最多的疾病,目前台灣面臨三高(高血糖、高血壓、高血脂)威脅的民眾高達 850 萬人,也因此衛福部與 Google 的合作即從慢性病切入。

健保署提供給醫師的「大家醫計畫」已在全台 2 萬間診所導入「糖尿病 AI 模型」,透過去識別化的聚合數據,為病患進行風險分級,協助醫師及早介入治療。Google 表示,單一病例的評估時間從 20 分鐘縮短至 25 秒,而原本需要 40 位專家投入三週才能完成兩萬人規模的篩檢,如今透過 AI 僅需 1 小時 24 分鐘。

這套風險分級機制不僅提供給醫師在家醫大平台作為看診參考,更將在使用者明確授權同意的前提下,根據使用者的就醫紀錄與健康數據、結合專業的臨床指引,直接在健保 APP「健康存摺」中生成民眾專屬的個人化 AI 衛教摘要與衛教師的叮嚀,讓民眾能隨時掌握自身的健康風險與照護重點。衛福部部長石崇良表示,這項 AI 框架不會僅限於糖尿病,下一步會擴及到高血壓、高血脂以及慢性腎臟病等其他重大慢性病。

除此之外,Google.org 提供了 100 萬美元給數位人道協會,協助其將糖尿病人工智慧模型整合進公私協力的應用程式裡,走入全台 300 個偏鄉社區據點服務糖尿病患。該協會也預計要藉此培訓 200 位數位照護專才,希望創造 24 萬人次的健康互動,縮短醫療資源落差。

石崇良指出,衛福部思考的是如何將資料(Data)轉換成有用的資訊(Information),再把資訊轉變成服務(Service),同時也強調「資料不離署」的原則進行公私協力。當提到未來 AI 運用藍圖,他表示未來思考如何將電子病歷與健保資料結合得更好,也就是讓所有電子病歷結構化,以後再發展聯邦學習的模式,這時候 AI 的力量就會更大。

*首圖來源:《TechOrange》拍攝。

當「設計自動化的人」也被裁:亞馬遜裁減機器人團隊,敲響供應鏈效率警鐘

作者 廖紹伶
2026年3月5日 12:05
當「設計自動化的人」也被裁:亞馬遜裁減機器人團隊,敲響供應鏈效率警鐘

亞馬遜近日再次裁員,這次波及的對象是其機器人部門。根據《Business Insider》與《Reuters》報導,亞馬遜證實已裁減至少 100 個機器人相關白領職位,涉及設計倉庫自動化設備的團隊。儘管裁員引發外界關注,但亞馬遜高層強調,機器人仍是亞馬遜未來發展的重要策略。

倉儲自動化團隊受影響,至少 100 個職位被裁

消息人士向《Reuters》透露,此次裁員主要集中在亞馬遜的機器人部門,該部門負責開發用於倉庫自動化的機器人與輸送設備,包括協助搬運貨物的機器人與物流傳輸系統。

亞馬遜並未公開具體裁員人數,只表示公司會「定期檢視組織架構,以確保團隊能更好地創新並為客戶提供服務」。

這次裁員也延續了亞馬遜近年的企業裁員趨勢。根據《Business Insider》統計,自 2022 年以來亞馬遜已裁減超過 5.7 萬個企業職位。其中包括去年 10 月約 1.4 萬名白領員工與今年 1 月約 1.6 萬名職位的裁員。《Reuters》指出,過去幾年的系列調整,約占亞馬遜白領員工總數的近一成。

不過,亞馬遜的整體員工規模仍十分龐大。截至去年底,該公司在全球約有 158 萬名員工,其中大多數是在倉儲與物流中心工作的時薪員工。

部分專案被收縮,但機器人仍是策略重點

儘管進行裁員,亞馬遜管理層仍強調機器人技術的重要性。根據《Business Insider》報導,亞馬遜機器人部門副總裁 Scott Dresser 在一封發給員工的內部信中表示,這次調整「艱難但必要」,並強調機器人仍是公司的策略重點項目,即使某些業務正在被縮減或重組。

亞馬遜目前的倉儲物流網絡高度依賴自動化技術,數以千計的機器人被部署在其全球各地的配送中心,負責搬運貨架、分類商品與協助包裝流程。這些自動化系統是亞馬遜維持大規模電商配送效率的重要基礎。雖然亞馬遜近期已停止開發一項名為 Blue Jay 的倉儲機器人系統,但正將重心轉向另一套名為 Orbital 的新型倉儲系統,部分參與 Blue Jay 專案的員工已被重新分配至其他機器人計畫。Orbital 與過去高度整合的大型倉庫架構不同,採用模組化設計,可由多個自動化模組組成,讓系統更容易部署與擴展。這種架構特別適合較小型的即時配送倉庫,甚至可能部署在 Whole Foods 等實體門市後方,作為微型物流中心。

AI 效率與成本壓力,正在重塑企業組織

外媒指出,這一波裁員同時反映亞馬遜在 AI 時代下對效率的重新思考。亞馬遜執行長 Andy Jassy 近年積極推動組織改革,希望降低官僚層級,讓公司運作更接近「全球最大的創業公司」。該公司也嘗試透過 AI 與自動化工具提高生產力,並減少不必要的管理層與企業部門成本。

《Finimize》分析,亞馬遜近期舉動向市場傳遞了一個明確且冷酷的訊號:即使科技巨頭們持續加碼投入數千億美元在 AI 資料中心與基礎設施上,這些更先進的 AI 工具與自動化技術,最終將無可避免地減少傳統的企業職位。

這也顯示大型企業在自動化預算的控管上變得更加嚴苛與務實。《Finimize》指出,過去那種為了創新而容忍長時間試錯的「大膽押注」模式正在轉變;現在,如果一個自動化專案無法在短期內展現明確的投資回報或達到預期的進度,其預算與人力資源就會被迅速重新分配。進一步來說,在 AI 與機器人技術快速發展的背景下,企業組織與人才結構的調整,可能也將成為未來科技產業的新常態。

*本文開放合作夥伴轉載,資料來源:《Reuters》《Business Insider》1《Finimize》《Business Insider》2,首圖來源:Amazon

2026 迎人形機器人試產元年!新漢不拚整機,用模組化安全腦搶吃 5 兆美元商機

作者 廖紹伶
2026年3月5日 19:48
2026 迎人形機器人試產元年!新漢不拚整機,用模組化安全腦搶吃 5 兆美元商機

自生成式 AI 爆發以來,大型語言模型不斷在虛擬世界展現突破然而,如何讓這些 AI 大腦「長出手腳」走入實體世界,已成為下一波科技浪潮的核心命題。工業電腦大廠新漢集團近日就揭露了其針對 AI 機器人領域的佈局與觀察。

新漢集團董事長林茂昌認為,AI 的發展可分為三個階段。第一階段的「雲端 AI」(Cloud AI)雖然聰明卻是失能的,因為它無法感知實體環境與自主行動;第二階段「邊緣 AI」(Edge AI)解決了即時性與企業資料隱私問題,但仍缺乏實體動作的能力。他指出,AI 產業第三階段是「實體 AI」,將 AI 決策結合物聯網的感知與控制技術,讓 AI 跨越虛擬限制化為實際行動,實現所謂的「知行合一」。

2025 啟動、2026 試產:人形機器人落地的關鍵檢驗期

隨著實體 AI 技術發展,人形機器人競賽也持續推進。新漢旗下機器人事業子公司創博總經理沈倩怡指出,去年(2025)是 AI 人形機器人的啟動元年,可以看到市場陸續有超過 300 家人形機器人業者,其中逾半在中國,而「今年是(人形機器人)開始落地的元年」,也就是進入試量產的階段。

沈倩怡指出,根據摩根士丹利報告預估,到 2050 年人形機器人將達 10 億台、創造 5 兆美元的市場規模。然而,目前的關鍵瓶頸在於「價格」,必須將現今高達 20 萬美元的造價降低至 2 萬美元以下,才有可能真正普及到家庭或一般服務場域。她認為現階段人形機器人的應用仍會以 B2B 為主,優先導入製造業、車廠以及物流倉儲等場域。

產業痛點:從「聰明但危險」到「聰明且安全」

當多數機器人新創在比拼硬體關節靈活度與 AI 模型時,新漢將其突圍的策略押注在安全性上。

「我認為最關鍵的是要把機器人從『聰明但危險』做到安全優先。」沈倩怡以市場常看到的人形機器人「翻車」影片為例,指出雖然現在許多中美業者的 AI 技術很強、機器人靈活度很高,但往往缺乏規範標準及功能安全設計。為了解決機器人「聰明但危險」的痛點,創博從 AI 運動控制器出發,打造出整合機器人大腦與小腦的模組化套件,當中涵蓋 AI 大腦決策、即時運動控制、功能安全監控,形成三位一體的控制架構。

林茂昌將新漢的商業模式比喻為「機器人界的聯發科」,表示聯發科是不做手機的手機公司,而新漢則是不做機器人的機器人公司。透過涵蓋大腦、小腦、安全腦的軟硬體解決方案,他指出新漢將複雜的機器人開發工作模組化,讓業者簡易且快速地打造自家的各類機器人。

這項策略點出了一個重要的產業動態:隨著時間推移,全球 AI 機器人競爭的焦點將不再侷限於單純的硬體設計,而是逐漸擴展至底層的控制平台與 AI 系統整合。2026 年作為觀察 AI 機器人邁入試量產階段的關鍵窗口,新漢的策略如何一同推進上兆美元產值的生態系,進而讓 AI 人形機器人順利落地,最終仍有待時間與市場來給出評判。

*圖片來源:《TechOrange》拍攝。

台灣量子驗證平台正式啟用!賴清德:與全球建立關鍵供應鏈夥伴關係

作者 廖紹伶
2026年3月6日 15:15
台灣量子驗證平台正式啟用!賴清德:與全球建立關鍵供應鏈夥伴關係

量子科技已成為下一波科技霸權競逐的關鍵,而台灣正從基礎研究階段,進入到應用實踐的新里程。國科會今(6 日)宣布啟動「AI 新十大建設——高速量子運算國家戰略」,除了揭露量子國家隊的第一期成果,也拋出第二期的 4 大戰略方向。總統賴清德也親自出席戰略發佈會,宣布對第二期計畫的大力支持。

從「量子國家隊」邁向「量子國際隊」

賴清德表示,為迎接 AI 與量子運算這百年一遇的新浪潮,政府正全力推動「AI 新十大建設」,其中「高速量子運算」是政府推動數位國防、資安加密,以及次世代產業轉型的必備工具。他指出,此一國家戰略計畫代表台灣的量子科技,正式從基礎研究邁入應用實踐,並宣布台灣的「量子國家隊」要進化為「量子國際隊」,將運用台灣在先進半導體製程與 AI 高速運算設備的優勢,以及全球供應鏈的角色,與理念相近的國家建立關鍵供應鏈夥伴關係。

「台灣不僅可以自研、自製量子運算的晶片,還能打造量子電腦,這具有劃時代意義。」賴清德提及,中研院在 2023 年發表了全台首部自研、自製的 5 位元超導量子電腦,今年 1 月份又正式發佈 20 位元的超導量子晶片,讓世界看見台灣已進入量子科技的賽道。

賴清德表示,該領域接下來有三件事要一同推進:第一,持續累積量子半導體技術的籌碼;第二,啟動大規模軟硬體整合計畫並加速培育人才;第三,強化量子資安佈局,確保國家數位韌性。

4 大方向啟動高速量子運算國家戰略

國科會主委吳誠文表示,若量子技術只停留在物理與材料科學領域的探討,而未與台灣具優勢的高速半導體技術結合,發展速度將會受限。他進一步以傳統電腦發展為例,說明今日 AI 的強大算力是建立在 CPU 與 GPU 的共同運作之上。因此,在量子運算領域,也必須將 CPU、GPU 與 QPU(量子處理器)整合為全新的架構,才能發揮出超越以往的龐大算力。

吳誠文指出,目前第一期計畫已成功研發出具有競爭力的超導量子位元晶片與矽基自旋量子位元,以及低溫讀取與控制模組,代表台灣具有完整自主供應鏈的潛力,接下來則聚焦 4 大戰略方向。

第一,啟動北部驗證平台:台灣和芬蘭量子團隊 IQM 合作的「量子電腦次系統驗證平台」在今天正式啟用,該平台將提供台灣產學界測試半導體與先進量子元件模組,以推進量子科技的產業化。

台灣和芬蘭量子團隊 IQM 合作打造的「量子電腦次系統驗證平台」。圖片來源:《TechOrange》拍攝。

第二,建置南部 HPQC 算力中心。吳誠文表示,在台南科學園區新建的國網中心留用了一整層樓,專門發展新形態的高速量子運算。

第三,建置設備並推動產學跨界整合。邀請半導體、設備與材料等產業界加入,搭配學界不同領域的團隊,共同研發演算法與應用系統。目標是將高速運算與量子運算結合,建立新的運算架構,以解決傳統電腦在藥品開發、科學突破等領域中無法處理的重大議題。

第四,推動國際合作開發軟體與系統。整體的戰略核心是邀請國際上民主友善國家的優秀量子團隊來台合作,共同開發高速量子運算的軟體與系統架構,讓台灣成為全球量子運算科技發展最關鍵的合作夥伴。

中研院院長廖俊智表示,在過去 20 年內,量子已從純粹的學術領域,轉變成各國的新型科技軍備競賽,而目前發展最大的挑戰在於如何讓它能夠長遠且有效率地被實際應用。他指出,樂見量子國家計畫進入第二期後,不再只侷限於硬體,而是開始發展軟體,並將量子運算與傳統高速運算結合,為未來的運算架構找到實用出路,同時找到台灣對世界有幫助的地方。

*圖片來源:《TechOrange》拍攝。

NVIDIA、AMD 出口再添變數?美國考慮要求外國企業用投資換 AI 晶片

作者 廖紹伶
2026年3月6日 18:01
NVIDIA、AMD 出口再添變數?美國考慮要求外國企業用投資換 AI 晶片

美國政府正考慮建立新的 AI 晶片出口管制框架,而外國企業未來若想大量購買 NVIDIA 或 AMD 的先進 AI 晶片,可能需要先承諾投資美國。

《Reuters》根據取得的一份政策文件報導,美國官員正在討論一套新的 AI 晶片出口規則,其中一項重要條件是:若外國企業希望獲得 20 萬顆或更多 AI 晶片的出口許可,其所屬國家可能需要投資美國的 AI 資料中心,或提供政府層級的安全保證。這些規則仍處於討論階段,尚未最終定案,未來仍可能有所調整。

AI 晶片出口可能採「分級制度」

《Financial Times》報導指出,美國商務部提出的草案將建立一套分級(tiered)出口審核制度,依照企業購買晶片的規模與算力大小決定審批條件。其中最高級別的交易,將要求買家所屬國家承諾投資美國 AI 基礎設施,作為獲得先進晶片的交換條件。

知情人士表示,這項設計部分是延續美國與中東國家近年達成的合作模式。例如美國去年批准向阿拉伯聯合大公國與沙烏地阿拉伯出口 AI 晶片,相關協議就包含這些國家承諾投資美國科技與 AI 產業的條款。

美國商務部也在社群平台 X 發文證實,政府確實正在討論新的出口框架,但強調這不會重啟拜登時代提出的 AI 擴散規則。商務部表示,該規則「過於繁瑣且影響過大」,未來政策將更接近美國與中東國家合作的模式。

小型部署也可能需要出口許可

除了大型訂單,新規草案對 AI 晶片的監管範圍也可能相當廣。根據《Reuters》看到的文件,即使是不到 1,000 顆晶片的小型部署,也可能需要申請出口許可。若要取得豁免,NVIDIA 或 AMD 等出口商可能需要持續監控晶片使用情況,而接收方則需同意安裝特定軟體,避免這些晶片被串聯成大型運算叢集。

此外,對於 10 萬顆以下晶片的訂單,買家可能需要提供政府對政府的安全保證;而規模達 20 萬顆晶片的資料中心,則可能需要接受美國出口管制官員的實地檢查。

華府政策顧問機構 Institute for Progress 的研究員、前國安官員 Saif Khan 表示,這些規則的目的之一是防止晶片透過第三方轉運流向中國,同時確保最先進 AI 超級電腦的部署更加安全。但他也警告,若許可要求過於廣泛,可能意味著美國政府正將晶片出口管制作為與盟友談判的工具,而不只是單純的國安措施。

*本文開放合作夥伴轉載,資料來源:《Reuters》《Financial Times》,首圖來源:Unsplash

AI 工具不是越多越好:BCG 與加州大學研究發現生產力「效率甜蜜點」

作者 廖紹伶
2026年3月9日 14:03
AI 工具不是越多越好:BCG 與加州大學研究發現生產力「效率甜蜜點」

AI 工具與各種 AI 代理最初被企業視為提升生產力、將人類從繁瑣任務中解放的利器,但一個出乎意料的副作用正在浮現。

《Harvard Business Review》近日發表的研究提出「AI brain fry」(AI 認知過載)概念,指員工在過度使用或監督多個 AI 工具時,可能因超出認知負荷而出現心理疲勞。研究顯示,當員工需要同時管理多個 AI agent、在不同工具之間切換時,容易出現注意力耗竭、決策疲勞與錯誤率上升等問題。

這項研究點出一個 AI 時代的「生產力悖論」:AI 確實能讓人工作更快,但如果工作流程沒有重新設計,人類可能會因為管理 AI 而變得更疲憊。

AI 生產力的副作用:研究提出「AI brain fry」現象

這項研究由波士頓顧問公司(BCG)與加州大學河濱分校研究人員合作完成,調查了 1,488 名美國全職員工的 AI 使用情況。

研究發現,大約 14% 使用 AI 的員工表示曾出現 AI brain fry。受訪者形容這種狀態像是「腦霧」或「嗡嗡作響」的感覺,包括難以專注、決策速度變慢、甚至出現頭痛等症狀。一名受訪的財務主管表示,在反覆使用 AI 進行資料整理與分析後,「我甚至無法判斷自己做出的東西是否合理,只能隔天再重新思考」。

研究顯示,這種認知疲勞不只是個人感受,也會帶來實際的商業成本。例如,出現 AI brain fry 的員工與未經歷此狀態的員工相比,其決策疲勞增加 33%。此外,在工作中使用 AI 的參與者中,遭遇此症狀者自我報告的錯誤率,也顯著高於未經歷 AI brain fry 的員工。

多工具與多 AI agent,成為認知負荷來源

研究指出,最容易導致認知疲勞的情境,是員工需要「監督」AI 工具運作。當員工認為 AI 系統需要大量人工監控時,期在工作中會多投入 14% 的心理努力,而心理疲勞程度則增加 12%。此外,資訊過載的情況也增加 19%。

另一個關鍵因素是 AI 導致的工作量增加。AI 可以讓員工完成更多任務,但也同時擴大了他們需要負責的範圍,導致注意力被分散到更多工具與結果上。例如,一些企業開始鼓勵員工建立或管理多個 AI agent 系統,甚至把 AI 使用量納入績效評估。Meta 就曾把 AI 生成的程式碼行數作為工程師績效指標之一。在這種環境下,員工常常需要在搜尋 agent、研究 agent、程式 agent 與設計工具之間頻繁切換,反而增加了工作複雜度。

研究還發現,AI 工具的數量與生產力之間呈現典型的「倒 U 型曲線」。當員工從使用 1 個 AI 工具增加到 2 個時,生產力會明顯提升;增加到 3 個工具時仍能繼續提高效率,但幅度開始下降。然而,超過 3 個工具後,生產力反而開始下降。換言之,使用 3 個 AI 工具,是效率的「甜蜜點」。

AI 也能減少倦怠,關鍵在使用方式

值得注意的是,AI 並不一定會增加壓力。研究顯示,當 AI 用於取代重複性工作時,員工的職業倦怠程度反而降低,平均下降 15%。這類任務通常被稱為「toil」,例如資料整理、格式化或例行報告。

在這些情況下,AI 可以釋放員工時間,讓他們投入更具創造性或策略性的工作,並提高工作滿意度與團隊互動。

研究人員指出,AI brain fry 與傳統「職業倦怠」(burnout)其實不同。職業倦怠通常來自長期情緒壓力,而 AI brain fry 則是因為短時間內大量消耗注意力與工作記憶而產生的認知疲勞。

AI 導入真正挑戰:重新設計工作流程

BCG 董事總經理暨合夥人、該研究報告作者之一 Julie Bedard 指出,這項研究是一個早期的警告訊號,顯示人們對於 AI 生產力的預期可能需要重新調整。多年來,相關預測都認為 AI 能讓員工更快完成更多工作,但 Bedard 表示,如果 AI 已經導致員工認知負荷過重,那麼企業或許需要重新思考這些假設。

研究建議企業應重新思考人類與 AI 的分工,例如:重新設計工作流程,讓 AI 與人類形成完整協作系統,而不是單純增加工具。明確定義 AI 使用的目的與工作量預期,避免員工誤以為必須完成更多任務。將績效指標從「AI 使用量」轉向實際成果,避免為了效率而造成認知負荷。培養員工管理 AI 工作負載的相關技能,例如問題框架建構、分析規劃和策略優先排序。將人類注意力視為有限資源,並進行策略性部署。

換言之,企業導入 AI 時面臨的最大挑戰,不只是技術部署,而是如何重新設計工作方式。Bedard 表示,解決方案不是放棄使用 AI,而是隨著 AI 革命加速,重新思考人類員工如何能更好地與 AI 工具更有效地協作。

*本文開放合作夥伴轉載,資料來源:《HBR》《AXIOS》《CBS NEWS》,首圖來源:Unsplash

Circle、Stripe 為何押注穩定幣?AI Agent 經濟正替它找到新舞台

作者 廖紹伶
2026年3月9日 18:22
Circle、Stripe 為何押注穩定幣?AI Agent 經濟正替它找到新舞台

AI 代理(AI Agents)正開始被金融與科技公司視為下一波數位經濟的重要參與者,而穩定幣可能成為支撐這個機器經濟的重要支付基礎設施。

包括 Circle 與 Stripe 在內的支付與加密公司,正積極打造新的支付系統,押注未來可能出現一種新的交易型態:由自主 AI 代理彼此購買資料、API 或軟體服務,並透過穩定幣進行大量低額、高頻的微交易。這類交易模式,可能無法由現有信用卡網路有效支援。

雖然穩定幣在實際商業應用上的採用仍然有限,但 AI agent 的興起,正為其提供一個新的發展方向。

AI 代理經濟:穩定幣的新應用場景

《Bloomberg》報導,穩定幣一直以來的主要訴求,是在跨境支付上提供比傳統金融系統更快、更便宜的交易方式。但在國內支付場景中,這樣的優勢其實較難突顯。代理式支付因此被視為突破口:在這種情境下,穩定幣相對於信用卡或傳統支付系統的優勢,不只是小幅改善,而是結構性的差異。正因如此,產業一直在尋找新的成長敘事,而 AI 代理正迅速成為這個故事的重要一環。

穩定幣產業將「Agentic payments」(代理支付)視為下一個重要應用場景,這類交易指的是軟體代理之間進行的高頻、小額支付,例如購買資料查詢、API 呼叫或 AI 服務。

Circle 執行長 Jeremy Allaire 就在日前公司財報電話會議上表示,穩定幣可能成為「機器對機器」(machine-to-machine)商業活動的原生貨幣。他指出,真正的機會並不在於 AI 代理替人類在電商網站購物,而是在 AI 系統彼此之間的服務交換。

舉例來說,一個法律分析 AI 代理可能為企業提供合約分析服務,而另一個 AI 系統在需要資料或專業能力時,可以直接向該代理購買服務。這類交易金額可能只有幾美分,但交易頻率可能極高。

Benchmark-StoneX 分析師 Mark Palmer 指出,這正是穩定幣可能發揮優勢的地方。他表示,微交易對於傳統支付系統而言並不理想,因為信用卡通常包含固定手續費與百分比費率,加上較長的結算時間,使得小額交易成本過高。相比之下,穩定幣具備即時結算與可程式化特性,可以直接嵌入軟體工作流程中,因此更適合支援 AI 代理之間的自動化交易。

Stripe、Circle 加速布局穩定幣基礎設施

這種未來情境正促使支付與加密企業加速建設相關基礎設施。Stripe 近年大舉投資穩定幣相關技術,包括在 2024 年以約 11 億美元收購穩定幣基礎設施公司 Bridge,並與加密創投 Paradigm 合作開發專為穩定幣支付設計的區塊鏈 Tempo。該計畫曾以 50 億美元估值募資 5 億美元。

Stripe 目前處理的年度支付總額已達 1.9 兆美元,公司估值約為 1,590 億美元。穩定幣與 AI agent 支付,被視為建立在其既有支付業務之上的新成長機會。另一方面,Bridge 近期也獲得美國貨幣監理署(OCC)的初步批准,準備設立一家國家信託銀行。若最終獲得監管機構核准,Bridge 將可提供企業數位資產託管、穩定幣發行與儲備管理等服務,進一步推動穩定幣融入受監管的金融體系。

Circle 同樣積極推動相關生態系。該公司發行的 USDC 是全球主要穩定幣之一,並與多家企業合作拓展支付應用。

此外,Shopify 已與 Stripe 與 Coinbase 合作,允許商家接受 USDC 支付,並計劃為使用穩定幣付款的消費者提供 1% 現金回饋。Coinbase 也推出商家支付平台,並孵化名為 x402 的開放標準,專門用於 AI 代理支付。

採用仍有限,與信用卡體系可能共存

儘管穩定幣與 AI agent 支付的願景受到市場關注,但目前實際採用的狀況仍然相當初期。根據 x402 的統計,過去 30 天該系統的交易量約為 2,400 萬美元,涉及約 9.4 萬名買家與 2.2 萬名賣家。相比之下,全球電子商務市場今年預計將達到 6.88 兆美元。

BWG Global 支付研究主管 Chris Donat 告訴《Bloomberg》,多數商家對支付方式本身並沒有強烈偏好,但只有在消費者需求明確時,才會願意增加新的支付選項。他表示,目前穩定幣仍未成為消費者普遍要求的支付方式,因此大規模採用仍需時間。此外,穩定幣支付目前也缺乏信用卡網路提供的多項保障,包括詐欺防護、爭議處理與信用延伸等服務。

因此,一些業界人士認為,短期內更可能出現的情境,是 AI 代理透過虛擬信用卡進行交易,而後端再以穩定幣完成結算。這種模式可能讓卡片網路與區塊鏈支付系統形成互補關係,而非直接競爭。Mastercard 發言人即表示,當 AI 代理開始代表使用者進行交易時,市場仍然需要「可信任的基礎設施」,確保支付過程具有可追溯性與責任歸屬。

對於 Circle 而言,AI agent 經濟也仍是一個長期願景。Allaire 表示,目前仍難以判斷 AI 代理交易何時會形成可觀的市場規模,但 AI、區塊鏈與穩定幣的結合,正逐漸成為金融科技產業的重要敘事。換言之,穩定幣的下一個成長故事,可能不在於跨境支付,而是在一個由 AI 代理主導、機器彼此交易的數位經濟中。

*本文開放合作夥伴轉載,資料來源:《Bloomberg》《Reuters》,首圖來源:AI 工具生成

幫 AI 除錯比自己寫還累?安永終結重工地獄的底層架構解法:上下文宇宙

作者 廖紹伶
2026年3月10日 10:09
幫 AI 除錯比自己寫還累?安永終結重工地獄的底層架構解法:上下文宇宙

AI 可以在幾分鐘內生成數千行程式碼,並在近期引發了一波軟體產量大爆發。根據《金融時報》分析,自 2024 年底起,美國開發者在 GitHub 上的程式碼提交量年增率飆升至 35%,全球 iOS App 的新發布量與新網站註冊量也分別出現約 50% 與 40% 的大幅成長。然而,這些龐大的發布數量並不等於企業真正「可用」的程式碼。

《VentureBeat》報導,由 AI 快速生成的程式碼有個問題:其中相當一部分無法在企業內部實際部署。它們可能違反了內部工程標準、無法通過資安與合規性審查,甚至工程師為了幫這些程式碼除錯與清理,所花費的時間比自己從頭寫還要多。

「你可以產生大量的程式碼,但這其實沒什麼意義,」安永全球客戶技術工程負責人 Stephen Newman 表示,程式碼必須具備可整合性與合規性,否則只是在前端加速生成,卻在後端製造更多麻煩。

建構「上下文宇宙」,打破 AI 代理落地的合規瓶頸

為了解決這個走向企業生產線的瓶頸,安永的產品開發團隊著手在既有的 IT 架構中打造一個全新的 AI 操作層。安永將選定的 AI 程式編寫代理,例如內部廣泛採用的 Factory 工具,與企業內部的程式碼庫、工程標準以及合規框架進行深度串接。

Newman 將這個高度整合的環境稱為「上下文宇宙」(context universe)。當 AI 代理具備了讀取公司專屬架構與規範的能力後,其產出的程式碼便能自然符合安永的內部標準,大幅降低了後段的重工率。

工程師角色轉型:從單純的執行者邁向「編排者」

這套機制的成功落地,不僅仰賴技術整合,更推動了安永軟體工程師角色的典範轉移。他們意識到,必須對 AI 代理的自主權限進行嚴格分類。對於程式碼審查、文件撰寫、錯誤修復以及全新功能開發等高自主性任務,AI 代理能發揮極大的效益;但如涉及大規模系統重構、底層架構決策與跨系統整合等高度複雜的任務,則仍須保留給人類工程師進行嚴密監督。

在這樣的架構下,工程師不再是需要親自敲打每一行基礎程式碼的執行者,而是轉型為指揮系統運作的「編排者」(orchestrators),核心價值在於引導 AI 代理前往正確的資料庫執行任務,並確保整體架構的邏輯一致性。

生產力倍增幕後:反覆試錯與底層架構整合

在落實安全防護機制與底層架構整合後,安永內部數據顯示,早期採用階段的不同職位獲得了 15% 到 60% 的效率提升,而全面實施半自主開發模式的團隊,整體生產力則達到 4 到 5 倍的成長。然而,安永團隊主管也坦言,這種幅度的成長不能單純歸功於導入 AI 寫程式工具,背後更多是經歷大量反覆試錯,以及開發團隊在組織文化與行為模式上做出妥協與轉變的結果。

從整個軟體產業的角度來看,安永的案例揭示了企業導入 AI 的務實面:AI 技術的效益不在於大型語言模型(LLM)的原始生成速度,而在於企業是否願意投入建構專屬的 AI 操作層。這意味著在下一波軟體開發競爭中,能明確定義人類工程師與 AI 協作界線並完成系統串接的組織,才能將這些自動生成的程式碼,轉化為實際可用的工程產出。

*本文開放合作夥伴轉載,資料來源:《VentureBeat》《Financial Times》《OfficeChai》,首圖來源:Unsplash

AI 機器人平台戰場擴大:高通推出 Arduino VENTUNO Q 挑戰 NVIDIA

作者 廖紹伶
2026年3月10日 12:44
AI 機器人平台戰場擴大:高通推出 Arduino VENTUNO Q 挑戰 NVIDIA

過去 10 年,AI 多數運行在雲端資料中心,但隨著機器人、自動化設備與智慧裝置快速發展,AI 正逐漸從雲端走向邊緣裝置,直接進入實體世界。Arduino 宣布推出新一代單板電腦 VENTUNO Q,鎖定 AI、機器人與自動化控制應用,反映出邊緣 AI 平台競爭正逐漸升溫。

根據 Arduino 官方說明,VENTUNO Q 採用高通的 Qualcomm Dragonwing IQ8 系列處理器,內建可達 40 TOPS 的神經網路處理器(NPU),並搭配 16 GB RAM 與最高 64 GB 儲存空間,可用於執行本地 AI 推理與多任務運算。平台同時支援 Ubuntu 或 Debian Linux 系統,並提供 Wi-Fi 6、Bluetooth 5.3、2.5 Gb Ethernet,以及多組 MIPI-CSI 相機介面等功能,鎖定機器人、視覺 AI 與邊緣運算場景。

AI 與即時控制整合的「雙大腦架構」

VENTUNO Q 的最大特色,是採用 Arduino 所稱的「雙大腦架構」(dual-brain architecture)。系統一方面由 Qualcomm Dragonwing IQ8 處理器負責 AI 推理與高效能運算,另一方面則整合 STM32H5 微控制器,用於處理低延遲的馬達控制與即時裝置操作。

這種架構試圖將 AI 推理與物理控制整合在同一平台。《Elektor Magazine》指出,這之所以重要,是因為機器人、機器視覺節點或智慧工業子系統不只需要「思考」,還要能即時做出反應。Arduino 就指出,透過這種設計,開發者可以在單一裝置上完成感知、決策與動作三個步驟,使機器不只是「理解世界」,也能直接「對世界採取行動」。

在典型的機器人系統中,AI 運算與控制系統往往分別運行在不同硬體。例如視覺辨識可能在高效能運算板上執行,而馬達與感測器則由微控制器或 PLC 管理。VENTUNO Q 則試圖將這兩種角色整合在同一平台,降低開發複雜度。

此外,該平台也支援 ROS 2(Robot Operating System)工作流程與多種機器人開發工具,並可直接搭配 Arduino UNO shields、Qwiic 感測器與 Raspberry Pi HAT 等硬體模組,延續 Arduino 原有的開發者生態系。

Arduino 從 Maker 平台走向 AI 機器人平台

Arduino 過去長期被視為 Maker 與教育市場的重要平台,其開發板被廣泛用於原型設計與嵌入式系統學習。但 VENTUNO Q 的定位已明顯不同。

官方將其描述為「AI、機器人與自動化控制平台」,顯示 Arduino 正試圖將自身角色從 Maker 工具轉型為 AI 機器人開發平台。

VENTUNO Q 也預先整合多種 AI 模型,包括語音辨識(ASR)、文字轉語音(TTS)、姿態辨識、物件追蹤與視覺語言模型等,並可透過 Qualcomm AI Hub 與 Edge Impulse 平台部署 AI 應用。這些功能允許開發者在裝置端執行 AI 模型,而不需依賴雲端運算。這種離線 AI 能力對於機器人與工業設備尤為重要,因為在實際應用中,延遲、網路連線與資料隱私都可能成為限制。

《Elektor Magazine》指出這不只是產品新聞,也是一個值得觀察的產業訊號:嵌入式開發正朝向子系統高度集中、更高度整合的邊緣 AI 平台,以及更低的機器人與智慧控制實驗門檻發展。

Edge AI 平台競爭正在升溫

VENTUNO Q 的推出,也被視為邊緣 AI 開發平台競爭的一部分。目前 AI 機器人開發領域,NVIDIA Jetson 系列透過 CUDA GPU 生態與 AI 軟體工具,成為許多機器人與自動化系統的主要開發平台。VENTUNO Q 則代表另一條技術路線:透過 Qualcomm Dragonwing AI 處理器與 Arduino 的開發者社群,Qualcomm 正試圖建立新的 Edge AI 生態系。

近年 Qualcomm 積極布局邊緣 AI 軟體與開發工具,包括 Edge Impulse 等平台,使 AI 模型能更容易部署到嵌入式裝置。VENTUNO Q 的推出,被視為這一策略的硬體基礎之一。

VENTUNO Q 或許只是一塊新的開發板產品,但它背後所反映的,是一場正在形成的 Edge AI 平台競爭。隨著 AI 應用逐漸從資料中心走向現實世界,誰能建立完整的邊緣 AI 開發生態系,將可能在未來的機器人與智慧裝置市場中占據關鍵位置。Arduino 表示,VENTUNO Q 將於近期推出,預計在 2026 年稍晚更廣泛上市。

*本文開放合作夥伴轉載,資料來源:Arduino《elektor Magazine》《Engadget》《eeNews》,首圖來源:Arduino

NVIDIA、三星、貝佐斯全上車!楊立昆 AMI Labs 獲逾 10 億美元融資,為何資本瘋搶「後 LLM 時代」?

作者 廖紹伶
2026年3月10日 16:25
NVIDIA、三星、貝佐斯全上車!楊立昆 AMI Labs 獲逾 10 億美元融資,為何資本瘋搶「後 LLM 時代」?

AI 研究領域的重要人物、圖靈獎得主楊立昆(Yann LeCun)再次引發市場關注。這位曾任 Meta 首席 AI 科學家的學者,為其新創公司 Advanced Machine Intelligence(AMI Labs)完成 10.3 億美元的種子輪融資,成為歐洲有史以來規模最大的首輪募資案之一。

這家成立不到三個月的公司目前估值已達 35 億美元。投資方包括 NVIDIA、Samsung、Temasek、Bezos Expeditions、Cathay Innovation、Greycroft、Hiro Capital 等多家科技與創投機構。此輪融資不只顯示市場對 AI 新創的高度熱情,也反映投資人正開始押注超越大型語言模型(LLM)的新一代 AI 技術路線。

AMI Labs 的目標,是打造能理解現實世界的「世界模型」(world models),而不是僅依賴文字資料訓練的 AI 系統。

從語言模型走向「理解世界」的 AI

近年 AI 產業的核心技術幾乎都圍繞大型語言模型,例如 OpenAI 的 GPT 系列或 Meta 的 Llama。但楊立昆長期批評這類模型的能力存在限制。

他認為,主要依賴文字資料訓練的 AI 系統難以真正理解物理世界,也難以實現更高層次的推理能力。因此,AMI Labs 正嘗試發展另一條技術路線:讓 AI 透過影片、空間資料與感測資訊來學習環境,建立對現實世界的理解。

這種方法打造的 AI 被稱為世界模型,其概念是讓 AI 能預測現實世界中的事件與行為,而不只是生成文字或圖片。

AMI Labs 執行長 Alexandre LeBrun 表示,世界模型可能成為下一個 AI 產業的熱門概念。他在接受《TechCrunch》訪問時指出,「我的預測是,『世界模型』將成為下一個流行詞。6 個月內,每家公司都會聲稱自己在做世界模型來募資。」

不過他也強調,AMI Labs 的目標並不是短期推出產品,而是進行基礎研究,建立新的 AI 架構。LeBrun 説,世界級模型從理論到商業應用可能需要數年時間。

目前 AMI Labs 的第一個合作夥伴是數位健康新創 Nabla,也計劃持續採取開放研究策略,發布論文並開源部分程式碼,以建立研究社群與技術生態系。LeBrun 表示,開放研究雖然在 AI 產業中越來越少見,但團隊相信這能加速技術發展。

投資人押注「後 LLM 時代」

根據《Financial Times》報導,2025 年 AI 新創吸引的投資金額約占全球創投總額的 48%,顯示 AI 已成為創投市場最熱門的領域之一。隨著 OpenAI、Anthropic 等公司帶動生成式 AI 熱潮,投資人也開始尋找可能改變產業格局的下一代技術。

世界模型正是其中一個受到高度關注的方向。這類技術被認為可能成為機器人、自駕車與實體 AI(physical AI)的關鍵基礎。目前已有多家 AI 新創投入類似研究:AI 科學家李飛飛(Fei-Fei Li)近期創立的 World Labs 也完成約 10 億美元融資,估值達 50 億美元;SpAItial 完成了 1,300 萬美元的種子輪融資,顯示這一技術方向迅速升溫。

歐洲 AI 新勢力

AMI Labs 的誕生也突顯歐洲在 AI 競爭中的新角色。該公司總部位於巴黎,並在紐約、蒙特婁與新加坡設有據點。目前團隊規模約 20 人,未來將持續招募 AI 研究人才。

楊立昆認為,全球市場對於「既不是美國也不是中國」的 AI 技術供應商存在需求,這為歐洲 AI 新創帶來機會。他表示,AMI Labs 的長期目標是打造一種「通用智慧系統」(universal intelligence system),未來可能應用於機器人、自駕車、航空航太與製藥等產業。

如果這條技術路線成功,世界模型或許將成為 AI 發展的下一個關鍵階段。

*本文開放合作夥伴轉載,資料來源:《Bloomberg》《TechCrunch》《Financial Times》,首圖來源:AMI Labs

你的服務會被 ChatGPT 直接「內建」嗎?解析 a16z 最新報告與 2026 企業 AI 生存防禦戰

作者 廖紹伶
2026年3月11日 12:58
你的服務會被 ChatGPT 直接「內建」嗎?解析 a16z 最新報告與 2026 企業 AI 生存防禦戰

創投機構 Andreessen Horowitz(a16z)近日發布第六版《百大消費者生成式 AI App》(Top 100 Gen AI Consumer Apps)榜單,試圖回答一個關鍵問題:哪些 AI 產品真的被主流消費者使用?《Forbes》則對此報告進一步提出企業應思考的 4 個大問題,以及制定 AI 平台策略的方法。

調查結果顯示,OpenAI 的 ChatGPT 仍然以壓倒性優勢領先市場,但 Google Gemini 與 Anthropic Claude 正快速成長。這場競爭不僅關乎誰能在 AI 助理市場暫時領先,更攸關誰能成為使用者的 「預設 AI 入口」(default AI),建立難以被取代的平台地位。

前 50 大生成式 AI 網路產品(以每月造訪數計算)。圖片來源:a16z
前 50 大生成式 AI 行動 App 產品(以每月活躍用戶數計算)。圖片來源:a16z

ChatGPT 仍領先,但 AI 平台競爭升溫

根據 a16z 的統計,ChatGPT 目前每週活躍使用者已達 9 億人,約占全球人口的 10%。在網站流量上,ChatGPT 規模是排名第二的 Gemini 的 2.7 倍,在行動端月活躍使用者方面也達到 2.5 倍差距。

然而競爭者正迅速追趕。資料顯示,Claude 的付費訂閱用戶年增率超過 200%,而 Gemini 的增長率更達 258%。此外,使用者開始同時使用多個 AI 助理:大約 20% 的 ChatGPT 使用者在同一週內也會使用 Gemini。

競爭者的快速成長主要來自產品能力的突破。Google 在影像與影片生成領域推出多項新模型,例如 AI 影片工具 Veo;Anthropic 則將 Claude 深度整合進 Chrome、Excel、PowerPoint 等工具,並推出開發者代理 Claude Code。

哪一個 AI 贏得主流消費者。圖片來源:a16z

下一個戰場:AI 應用程式商店

a16z 指出,這場平台大戰的下一個關鍵戰場將是「應用程式商店」(App Store)與連接器生態系。OpenAI 與 Anthropic 已開始建立各自的應用平台。ChatGPT 推出 GPTs 與 Apps 生態系,目前已包含 220 多個應用程式;Claude 則建立 Connectors 與 MCP(Model Context Protocol)整合架構,擁有約 160 個官方整合與數十個社群插件。

一旦使用者將 AI 助理連接到電子郵件、行事曆或 CRM 系統,平台切換成本就會大幅提高。同時,開發者也會傾向優先為使用者最多的平台開發應用,形成類似早期行動作業系統大戰的飛輪效應。

值得關注的是,各大 AI 平台的發展策略正走向分化。ChatGPT 正試圖成為消費者的「AI 超級應用」。其整合服務涵蓋旅遊、購物、健康、娛樂等多個生活場景,例如 Expedia、Instacart、Zillow 與 MyFitnessPal 等服務都能在 ChatGPT 中直接使用。

Gemini 則走另一條路:將 AI 深度整合進 Google 的既有產品生態,包括 Chrome、Gmail、Docs、Sheets 與 YouTube。Google 近期推出的 Personal Intelligence 系統,甚至能直接存取使用者的 Gmail、照片與搜尋紀錄。

Claude 則鎖定另一個市場:專業用戶與開發者。其整合的工具多為金融資料平台、開發者基礎設施與科研資料庫,例如 PitchBook、Databricks 與 PubMed。

橫向 AI Agent 崛起

除了通用的 LLM 助理,能夠自主執行多步驟任務的「橫向 AI 代理」(Horizontal AI Agents)也開始嶄露頭角。

例如,近期爆紅的開源項目 OpenClaw,允許用戶透過通訊軟體下達指令,讓 AI 在背景自動執行任務;而 Meta 近期斥資 20 億美元收購的 Manus,以及獲得高額融資的 Genspark,都展現了市場對這類端到端自動化工具的強烈需求。這些代理產品未來將無可避免地與 ChatGPT、Gemini 等通用學習助理展開激烈競爭。

AI 正在跳出瀏覽器、App 框架

最後,a16z 點出了一個重要的趨勢:無論是直接整合 AI 的瀏覽器(如 Perplexity 的 Comet)、為開發者量身打造的桌面端工具(如 Claude Code)、隱藏在背景運作的語音筆記軟體,或深度嵌入既有應用的 AI,新一代的 AI 體驗正跳脫傳統瀏覽器與應用程式的框架。

換言之,AI 正在成為一種無所不在的「作業環境」(Operating Environment)。

企業應該如何制定 AI 平台策略

面對上述趨勢,《Forbes》指出企業需要思考 4 個問題。首先是管道依賴性。企業應該自問有多少客戶是透過 AI 取得?如果這個比例翻倍,又會發生什麼事?第二,由於消費者與 AI 助理每一次互動都會產生行為數據,但這些數據由平台捕獲,企業卻無法取得,將形成資料不對等的狀態。

第三,如果企業提供的服務可以被 AI 平台作為內建功能複製,那麼差異化競爭的空間就會迅速縮小。第四,當 AI 代理代表消費者進行談判和交易時,品牌忠誠度不再是公司與客戶之間的關係,而是演算法中的一個變數。

《Forbes》認為,在此波 AI 浪潮下成功轉型的公司,並非是擁有最先進內部 AI 工具的公司,而是了解 AI 平台如何構建其與客戶關係的公司。

因此,報導建議企業第一步繪製 AI 產品展示藍圖;第二步,投資 AI 難以複製的護城河:專有數據、品牌信任、人類判斷與人際關係,以及深度嵌入客戶工作流程與分銷模式。第三步,建構 AI 介面,優化 AI 助理發現、評估和推薦產品的方式;第四步將 AI 平台策略納入董事會議程。

*本文開法合作夥伴轉載,資料來源:A16z《Forbes》,首圖來源:A16z

工程師面試不只談薪水:矽谷開始把「AI 算力」寫進薪酬

作者 廖紹伶
2026年3月11日 17:51
工程師面試不只談薪水:矽谷開始把「AI 算力」寫進薪酬

矽谷科技公司向來以優渥薪酬搶人才,薪酬結構通常由基本薪資、獎金與股票三大部分組成,但隨著生成式 AI 成為軟體開發的重要工具,科技業開始出現一種新的討論:AI 算力是否也應該成為工程師薪酬的一部分。

隨著生成式 AI 迅速普及,企業對於 GPU 與 AI 推論資源的需求急速上升,這些算力不只關係到產品開發速度,也直接影響工程師的生產力。《Business Insider》報導,一些求職者在面試時甚至會直接詢問,公司能提供多少 AI 推論(inference)算力,作為是否加入的重要考量。

這意味著工程師薪酬結構可能出現新的變化:除了薪資、獎金與股票之外,AI 使用額度或 token 配額,正逐漸被視為第四種薪酬要素。

AI 算力成為工程師的新「工作資源」

OpenAI Codex 工程主管 Thibault Sottiaux 最近在社群平台 X 上表示,他在招募工程師時,越來越常被問到:加入團隊後可以使用多少 AI 推論算力來開發?他指出,AI 使用量的成長速度遠高於使用者數量的增加,這代表算力資源正在變得更加稀缺,也越來越有價值。

這種稀缺性正在重塑工程師對於工作和薪資的看法。OpenAI 總裁 Greg Brockman 也直言:「你能使用多少推論算力,將越來越直接影響軟體開發的生產力。」換句話說,在 AI 時代,工程師若無法取得足夠的模型算力,可能就會比同事產出更少程式碼,甚至影響職涯發展。

AI token 可能成為薪酬新指標

這種變化已反映在工程師薪酬結構上。薪資網站 Levels.fyi 的資料專家 Hakeem Shibly 最近在一位軟體工程師的薪資資料中看見,候選人已經把「GitHub Copilot 訂閱」列為員工福利之一。

一些投資人與 AI 產業人士甚至預測,未來工程師薪酬可能直接以 token 預算呈現。創投機構 Theory Ventures 合夥人 Tomasz Tunguz 指出,企業實際上已經開始把 AI 推論成本視為工程師薪酬的第四個組成部分:薪資、獎金、股票、AI 推論成本。

Token 是生成式 AI 的基本計價單位。大型語言模型會把文字拆分為 token 進行計算,目前業界普遍以「每百萬 token 的價格」來計算 AI 使用費。Tunguz 甚至預測:「進入 2026 年後,你很可能會開始看到工程師以 token 作為薪酬的一部分。」

AI 成本可能占工程師成本兩成以上

隨著 AI 寫程式工具在開發流程中的角色越來越重要,AI 推論成本也逐漸成為企業 IT 預算的重要項目,對企業財務長(CFO)帶來新的管理挑戰。

Levels.fyi 的數據顯示,美國軟體工程師薪資第七十五百分位約為 37.5 萬美元。如果再加上約 10 萬美元的 AI 推論成本,單一工程師的總成本可能達到 47.5 萬美元。這代表 AI 使用成本可能占工程師總成本的 20% 以上。

因此,CFO 會開始關注一個新的問題:企業究竟從 AI 投資中獲得多少生產力回報?

Tunguz 認為,企業未來可能會使用類似雲端運算的指標來衡量工程師效率。如果雲端基礎設施以「每 GPU 小時的毛利」評估效益,那麼工程師則可以用「每美元 AI 推論成本所產生的有效工作量」來衡量。

他在自己的工作流程中就大量使用 AI,將日常任務自動化後,每天可完成約 31 項任務,AI 推論成本約為每年 1.2 萬美元。但他也指出,如果某位工程師每年消耗 10 萬美元 AI 推論成本,那麼生產力就必須至少提升 8 倍,才能合理化這筆支出。

隨著 AI 成為軟體開發的重要基礎工具,算力資源很可能像電腦設備與雲端資源一樣,逐漸成為工程師工作的基本條件,甚至成為企業吸引 AI 人才的重要籌碼。

*本文開放合作夥伴轉載,資料來源:《Business Insider》《Tomasz Tunguz》,首圖來源:Unsplash

2 個工程師、3 個月搞定 600 PB 數據!揭密 OpenAI 內部 AI 代理如何讓 4 千名員工大省時間

作者 廖紹伶
2026年3月12日 10:00
2 個工程師、3 個月搞定 600 PB 數據!揭密 OpenAI 內部 AI 代理如何讓 4 千名員工大省時間

在過去,當企業分析師需要從海量資料中交叉比對各個地區與客戶群的營收時,往往需要耗費數小時甚至數天。他們必須在數以萬計的資料集中尋找正確的表格、撰寫複雜的 SQL 查詢語法,並反覆確認資料架構。如今,在 OpenAI 內部,員工只需要在通訊軟體 Slack 中輸入一段簡單的自然語言提問,幾分鐘內就能獲得一份完整的分析圖表。

這個改變背後的工具,是 OpenAI 內部一個由兩名工程師在三個月內打造的 AI 資料代理(AI data agent)。該系統如今已被約 4,000 名員工每天使用,能搜尋超過 7 萬個資料集與約 600 PB 的企業資料,讓員工透過自然語言就能完成複雜的資料分析。值得關注的是,其中 70% 的程式碼由 AI 生成。

搜尋 600 PB 海量資料,AI 代理的強大威力

OpenAI 面臨的資料挑戰極為龐大,其資料平台涵蓋超過 70,000 個資料集,總資料量高達 600 PB(Petabytes)。要在如此浩瀚的數據庫中找到正確的資料表,是資料科學家最頭痛的難題。

為了解決這個痛點,OpenAI 的資料平台團隊開發了一款基於 GPT-5.2 模型的 AI 資料代理。它被無縫整合到員工日常使用的介面中,包括 Slack、網頁介面、開發環境(IDE)以及內部的 ChatGPT 應用程式。

無論是財務團隊查詢營收數據、產品經理追蹤新功能採用率,或是工程師除錯系統延遲問題,這個 AI 代理都能跨越部門藩籬,將散落各處的資料進行統整與深度分析。

OpenAI 資料基礎設施負責人 Emma Tang 表示,這個系統平均每次查詢可節省 2 至 4 小時的工作時間。更重要的是,它讓許多非技術部門也能直接取得資料洞察,例如產品、行銷或成長團隊。

精準回答的秘密:打造 6 層上下文架構

然而,讓 AI 代理回答資料問題最怕遇到的就是「一本正經地胡說八道」,也就是幻覺與過度自信。為了確保 AI 代理能精準且正確地運作,OpenAI 團隊為其精心設計了 6 層上下文(Context)機制。

第一層:Table Usage(資料表使用模式)。系統利用資料表的 schema、欄位與歷史查詢紀錄,了解哪些資料表通常會一起使用。

第二層:Human Annotations(人工註解):由資料專家提供資料表與欄位的說明,補充 metadata 無法表達的商業語意。

第三層:Codex Enrichment(程式碼分析):AI coding agent Codex 會分析資料管線程式碼,理解資料表如何生成、更新頻率、主鍵與依賴關係。

第四層:Institutional Knowledge(企業知識)。系統會讀取 Slack、Google Docs、Notion 等內部文件,理解公司內部的指標定義、專案代號與產品事件。

第五層:Memory(學習記憶)。當使用者修正錯誤或補充資料邏輯時,代理會將這些知識保存起來,提升未來回答品質。

第六層:Runtime Context(即時資料探索)。當前五層找不到答案時,代理會直接對資料倉儲進行即時查詢與探索。

透過這 6 層上下文,AI 不只是查詢資料,而是能理解資料背後的商業語意與技術結構。

要留意的是,上下文越多不一定越好,Emma Tang 指出,過多資訊反而可能降低準確率。其團隊經過實驗後發現,精選且準確的上下文比大量資料更有效。

除此,針對 AI 有時會過早認定某個資料表是正確來源,結果導致錯誤結論的情形,OpenAI 在提示詞中加入一段特殊指令,要求代理在分析前先進行「探索階段」,搜尋多個資料來源並進行驗證,再開始分析。

AI 代理競賽的真正門檻:資料治理

儘管 AI 模型能力持續提升,OpenAI 認為企業導入 AI agent 的最大挑戰並不是模型本身,而是資料治理(data governance)。Emma Tang 指出,如果企業資料缺乏整理與註解,即使最先進的 AI 模型也很難給出可靠答案。

換句話說,AI agent 並沒有取代企業既有的資料基礎設施,而是建立在其之上的新入口。資料倉儲、資料管線與商業智慧系統等底層基礎設施仍然是運作基礎。但一旦這些基礎準備就緒,AI 代理就能讓資料分析從專業技能變成日常能力。

*本文開放合作夥伴轉載,資料來源:《VentureBeat》《Business Insider》OpenAI,首圖來源:Unsplash

黃仁勳的底層護城河保衛戰:NVIDIA 豪砸 260 億美元打造的美製開放模型亮相

作者 廖紹伶
2026年3月12日 12:12
黃仁勳的底層護城河保衛戰:NVIDIA 豪砸 260 億美元打造的美製開放模型亮相

隨著 AI 代理(Agentic AI)開始被企業用於自動化更複雜的任務,AI 產業的競爭焦點正悄悄改變。過去市場比的是模型規模與能力上限,如今企業更在意的,則是推理效率、部署成本,以及模型是否適合多代理系統長時間運作。

NVIDIA 宣布推出的開放權重模型 Nemotron Super 3,正是對此新需求的回應。這款模型主打為 Agentic AI 系統設計,採用混合式 Mixture-of-Experts(MoE)架構,具備 100 萬 token context window,目標是在處理長流程、多步驟任務時,降低運算成本與所謂的「思考稅」(thinking tax)。

這也顯示,AI 產業正從單一大型模型競賽,轉向更重視推理效率、多代理系統與開源生態的新階段。而 NVIDIA 也試圖藉此從 AI 晶片供應商,進一步轉型成為完整的 AI 生態系提供者。

多代理系統興起,推理成本成新瓶頸

AI 代理之所以成為新焦點,是因為企業希望它們不只回答問題,而能真正執行任務,例如協助寫程式、處理資安事件、搜尋資料,甚至完成跨工具的工作流程。但這類多代理系統也帶來新問題。

根據 NVIDIA 與《VentureBeat》引述的資料,多代理應用在執行長流程任務時,產生的 token 量可能是一般聊天互動的 15 倍。原因在於,代理每完成一步,都必須反覆帶入歷史脈絡、工具輸出與中間推理結果。這種現象被 NVIDIA 稱為「上下文爆炸」(context explosion)。當上下文持續膨脹,模型不僅更昂貴,也更容易在長任務中偏離原本目標。

另一個問題則是「思考稅」。也就是說,若每個子任務都交由大型推理模型處理,成本與延遲都會迅速上升,使 Agentic AI 很難在企業場景中大規模落地。Nemotron Super 3 的定位,正是試圖在這兩個瓶頸之間找到平衡。

Nemotron Super 3:為 Agentic AI 優化的開放模型

NVIDIA 將 Nemotron Super 3 定位為其目前最強的開放權重模型之一,專門用於大規模 Agentic AI 系統。模型總參數量約 1,200 億,但推理時實際啟用的只有 120 億參數,藉此控制推理成本與速度。

官方表示,這款模型在高容量推理與多步驟任務上,能提供比前一代 Nemotron Super 提升超過 5 倍的吞吐量,同時改善準確度。《VentureBeat》報導,目前該模型在 DeepResearch Bench 評測中排名第一。這項基準主要用來測試 AI 是否能在大量文件資料中進行深入、跨步驟的研究與分析。此外,在高負載情境下,它也展現出效能優勢,吞吐量最高可達 gpt-oss-120B 的 2.2 倍,以及 Qwen3.5-122B 的 7.5 倍。

更重要的是,Nemotron Super 3 具備 100 萬 token 的原生 context window。這意味著它在處理大型程式碼庫、長文件集或多步驟工作流程時,能維持更長期的記憶與任務一致性,減少多代理系統常見的脈絡斷裂問題。

三重混合架構,核心是效率

從架構設計來看,Nemotron Super 3 的技術突破在於其獨特的「三重混合架構」。

它結合了能高效處理超長序列的 Mamba-2 狀態空間模型(SSM),以及能精準檢索關鍵資訊的 Transformer 注意力層。更重要的是,它引入了創新的「潛在混合專家」(Latent Mixture-of-Experts, LatentMoE)設計。透過在分配任務前先將 Token 壓縮,該模型能以相同的運算成本調用多達 4 倍的專家網路,在處理需要頻繁切換 Python 語法、SQL 邏輯與自然語言的複雜代理任務時,展現出極高的靈活度。

對 Blackwell 最佳化,也是在替 NVIDIA 自己鋪路

Nemotron Super 3 的另一個戰略意義,在於它與 NVIDIA 自家硬體平台的高度綁定。這款模型原生以 NVFP4 4-bit 浮點格式在 Blackwell GPU 上預訓練,而非事後再量化壓縮。NVIDIA 表示,這讓模型在 Blackwell B200 上,相較前一代 Hopper H100 的 FP8 模式,可達到 4 倍推理加速,且不犧牲準確率。

這不只是模型優化問題,也關係到 NVIDIA 的長期定位。根據《WIRED》報導,NVIDIA 計畫在未來五年投入 260 億美元建設開放權重 AI 模型。這意味著它不再滿足於只做晶片與軟體工具,而是試圖進一步成為可以與 OpenAI、Anthropic、DeepSeek 競爭的 AI 模型與生態系玩家。

NVIDIA 生成式 AI 軟體副總裁 Kari Briski 也表示,這些模型不只是對外提供給開發者使用,同時也是 NVIDIA 用來測試、拉高自家硬體、儲存與網路架構能力的重要工具。

開源模型,正成為 AI 產業新戰場

NVIDIA 積極擁抱開源的另一個關鍵驅動力,來自於中國開源模型快速崛起的強大競爭壓力。《WIRED》指出,美國最強的封閉模型仍主要掌握在 OpenAI、Anthropic 與 Google 手中,但近年真正活躍於全球開發者與新創社群中的,往往是來自中國的開放模型,例如 DeepSeek、阿里巴巴的 Qwen、Moonshot AI、MiniMax 等。

這些模型因為權重公開、容易修改、部署彈性高,已成為許多研究者與新創公司建立應用的基礎。對 NVIDIA 而言,如果中國開源模型持續進步,且逐漸採用非 NVIDIA 硬體,長期可能動搖其生態系優勢。尤其市場盛傳 DeepSeek 新一代模型可能完全以華為晶片訓練,若成真,勢必會加劇美中在開源 AI 模型與硬體生態上的競爭。

也因此,Nemotron 不只是產品發布,更像是一種表態:NVIDIA 希望提供一個美國版、可商用、可開發、可部署的開放模型替代方案,回應中國開源模型的快速崛起。透過提供具備頂尖性能且商業友好的美國製開源模型,NVIDIA 不僅確保自身的硬體護城河,更在實質上牽動了中美之間在 AI 發展底層架構上的話語權爭奪。開源 AI 模型戰略,已然成為全球 AI 產業最火熱的新競爭焦點。

*本文開放合作夥伴轉載,資料來源:《WIRED》《VentureBeat》《SilisonAngle》NVIDIA,首圖來源:NVIDIA

不用再登入 Salesforce 撈資料?Perplexity 搶攻「AI 代理編排層」,掀企業 SaaS 介面淘汰賽

作者 廖紹伶
2026年3月12日 18:44
不用再登入 Salesforce 撈資料?Perplexity 搶攻「AI 代理編排層」,掀企業 SaaS 介面淘汰賽

AI 代理(AI agent)正快速從研究概念走向企業軟體的核心介面。AI 搜尋新創 Perplexity 在其首屆開發者大會 Ask 2026 上宣布推出新的多模型 AI 代理,包含雲端代理 Perplexity Computer 以及本機代理 Personal Computer。這項布局顯示,這家原本以 AI 搜尋聞名的公司,正試圖進入企業軟體市場,與微軟、Salesforce 等大型平台競爭。

Perplexity 表示,其本機代理系統可以把一台閒置電腦轉變成類似開源代理框架 OpenClaw 的 AI 控制系統,但提供更完善的安全與治理機制。該公司認為,隨著 AI 代理逐漸成為企業自動化流程的重要工具,能夠協調多個模型與企業資料來源的「代理編排層」(orchestration layer),將成為下一波 AI 軟體競爭的焦點。

AI 代理不只是聊天機器人,而是「完成工作的系統」

Perplexity 的核心產品 Computer 本質上是一個 AI 代理編排引擎。當使用者提出任務目標,例如「整理今晚活動參與企業的簡報資料」,系統會先將目標拆解為多個子任務,再分配給不同的 AI 子代理處理。

這些子代理會使用最適合的 AI 模型完成工作,包括資料搜尋、文件生成、程式撰寫、分析與內容整理,最後再整合成完整成果。換句話說,Computer 不只是回答問題,而是能直接完成一整個工作流程。

根據 Perplexity 說明,該系統可同時協調約 20 個不同 AI 模型。其中包括 Anthropic 的 Claude Opus 作為主要推理引擎、Google Gemini 用於深度研究、OpenAI 模型負責長上下文搜尋,以及其他模型處理影像或影片生成等任務。

這種多模型架構反映了 Perplexity 的一個核心假設:未來不會有單一 AI 模型能在所有任務上表現最佳,因此企業將需要一個能在不同模型之間進行任務分配與調度的編排平台。

Perplexity 的內部數據也顯示這一趨勢。2025 年初,Perplexity 企業用戶的 AI 查詢仍有 90% 集中在兩個模型上,但到 2025 年底,沒有任何單一模型的使用率超過 25%。

從 Slack 機器人開始的 AI 代理工具

Perplexity Computer 的誕生,其實源自 Perplexity 內部的一個實驗。最早版本是一個 Slack 機器人,員工可以在 Slack 頻道中直接向 AI 提問或交付任務。

這個工具很快在公司內部爆紅。財務團隊用它自動化應收帳款流程,銷售團隊則利用它快速生成提案文件。由於 Slack 對話是公開的,員工可以看到同事如何使用 AI,這種互相學習的情境加速了採用速度。Perplexity 業務主管 Dmitry Shevelenko 表示,這個工具「改變了公司內部的工作方式」。

目前企業版本的 Computer 已整合超過 100 種企業系統連接器,包括 Snowflake、Datadog、Salesforce、SharePoint 與 HubSpot。員工只需以自然語言提問,就能直接查詢企業資料倉庫或生成分析報告。

Personal Computer:本機版 AI 代理

除了雲端代理 Computer,Perplexity 也推出 Personal Computer,這是一個可在本地裝置上運行的 AI 代理系統。該系統可部署在專用裝置,例如 Mac mini,並直接存取本機檔案與應用程式。Perplexity 表示,本機部署可提供更高的資料控制能力,並能滿足部分企業對資料安全的需求。

Perplexity 同時將 Personal Computer 與開源 AI 代理框架 OpenClaw 進行對比。《VentureBeat》指出,OpenClaw 在開發者社群中相當流行,但需要較高的技術門檻,且缺乏企業級治理功能。Perplexity 就強調其系統的安全機制,例如每項操作都需要使用者確認,並提供完整稽核紀錄(audit trail)。該公司認為這些設計能降低企業在導入 AI 代理時的安全風險。

企業 AI 市場競爭升溫,Perplexity 切入點是什麼?

Perplexity 的新產品意味著公司正從 AI 搜尋服務提供者,轉型為企業 AI 平台競爭者。目前企業 AI 市場的主要玩家包括:將 Copilot 整合至 Microsoft 365 與 Copilot Studio 的微軟;透過 Einstein AI 平台打造企業代理的 Salesforce;在 Workspace 與 Gemini 中擴展 AI 功能的 Google;以及推出 Claude Cowork 等企業 AI 工具的 Anthropic。

Perplexity 的差異化策略在於多模型編排。這項戰略轉型為企業軟體市場帶來了新型態的「中介軟體」(Middleware)威脅。Perplexity 試圖成為一個凌駕於所有應用程式之上的介面層,這不禁讓市場質疑:如果 AI 代理能直接查詢 Salesforce 或生成 Snowflake 報表,企業未來是否還需要那些底層平台的原生介面?

然而,分析指出,這場豪賭面臨著巨大的挑戰。首先是「技術依賴性」。作為一家沒有自有基礎模型(Foundation Models)的 AI 公司,Perplexity 的編排層高度依賴競爭對手如 OpenAI、Google、Anthropic 的 API 存取權。如果這些底層模型供應商限制存取或提高價格,Perplexity 的價值主張將大打折扣。

更關鍵的障礙在於「企業信任」。要讓 Fortune 500 大企業將最機密的資料庫、法律合約與商業情報,交給一家成立僅三年的新創公司所開發的 AI 代理自主處理,是一項艱鉅的挑戰。儘管 Perplexity 強調其具備虛擬機器隔離(MicroVM)、SOC 2 Type II 認證等企業級資安防護,但如何說服企業資安長買單,將是 Perplexity 能否成功將消費端熱潮轉化為穩定企業營收的最終決戰點。

*本文開放合作夥伴轉載,資料來源:《VentureBeat》《AXIOS》,首圖來源:Perplexity

❌
❌