普通视图

发现新文章,点击刷新页面。
昨天以前首页

思科的 AI 豪賭:從網路設備商到企業 AI 基礎設施供應商的轉型之路

作者 LC
2026年3月5日 10:26
思科的 AI 豪賭:從網路設備商到企業 AI 基礎設施供應商的轉型之路

當多數企業還在討論該導入哪個大型語言模型時,思科(Cisco)則認為,AI 時代的競爭關鍵,不在於誰的模型最強,在於誰能掌握運行這些模型的基礎設施。

這家打造了全球網際網路骨幹的網路設備商,正將 AI 從軟體應用層拉進硬體架構的核心,試圖成為企業 AI 時代不可或缺的「水電瓦斯」供應商。

從賣設備到賣 AI 運行能力

過去三十年,思科靠著網路交換器、路由器與企業網路設備稱霸市場,但傳統網路市場的成長早已趨緩,庫存消化壓力與競爭加劇,讓華爾街持續關注思科能否找到新的成長引擎。AI 正是思科押注的武器,但它選擇的切入點與多數科技公司截然不同。

執行長 Chuck Robbins 將 AI 視為堪比網際網路崛起的世代性機會,當年思科正是靠著網路基礎設施的爆發成長,躋身全球最有價值企業之列。這次思科的策略是,將 AI 視為企業基礎設施的核心組成,而非單一應用或附加功能。

簡單來說,思科認為即使企業採用了最先進的 AI 模型,若底層網路、協作工具與資安架構跟不上,這些模型也只會淪為跑不動的軟體。

這個判斷背後的技術邏輯是,AI 工作負載對網路的需求與傳統企業應用完全不同。模型訓練與推論需要在 GPU、儲存系統與終端設備之間高速搬運海量資料,任何網路壅塞、封包遺失或安全漏洞,在傳統環境中或許還能容忍,但在 AI 運算中都可能成為致命瓶頸。思科的新產品線正是針對這些挑戰而設計,從專用晶片、智慧流量管理到以 AI 強化的資安機制,全面重構企業 AI 的運行基礎。

網路、協作與安全的三軸整合

思科的 AI 布局橫跨三大領域,包括網路基礎設施、協作設備與資安架構。在網路層,思科推出專為 AI 工作負載優化的交換與路由平台。傳統資料中心網路主要處理「南北向」流量,也就是使用者與伺服器之間的資料傳輸;但 AI 工作負載會產生大量「東西向」流量,因為 GPU 在訓練與推論過程中需要頻繁互相溝通。

思科的新基礎設施產品以更高頻寬、更低延遲的架構來因應這種流量模式,並導入智慧負載平衡,能動態適應 AI 流量難以預測的特性。值得注意的是,思科力推以乙太網路(目前最普遍的電腦區域網路技術)為基礎的 AI 網路方案,直接挑戰 NVIDIA 專有 InfiniBand 技術,賭的是企業會偏好開放標準帶來的彈性與成本優勢。

在協作設備上,思科將 AI 功能整合進協作設備與雲端服務,讓會議室與工作空間從被動工具變成主動參與者。簡單來說,以前工作空間裡的這些設備像錄影機,需要人類主動按下錄製才得以啟動;現在它們更像一個「AI 助理」,會主動觀察、理解、並提供服務,不需要人類一步步下指令。

在資安層面,思科則面對一個雙重挑戰:企業既需要保護 AI 系統本身,包括模型、訓練資料等免於攻擊,又需要運用 AI 來強化整體資安態勢。思科的做法是將安全能力直接嵌入網路架構層,而非當作事後疊加的覆蓋層。這在 AI 環境中尤其重要,因為對抗性攻擊、資料投毒、提示詞注入與模型竊取等新型威脅,都是傳統資安工具無法有效應對的。思科主張,唯有將安全內建於基礎設施,才能提供更全面的防護。

在擁擠的競爭賽道上找到差異化位置

思科並非唯一看到 AI 基礎設施商機的業者。Arista Networks、即將被 HPE 收購的 Juniper Networks,以及各大雲端供應商都在搶食這塊市場。NVIDIA 更是橫跨運算與連網兩端的強勁對手,其 Spectrum-X 乙太網路平台與既有的 InfiniBand 業務,讓它同時掌握 AI 基礎設施的晶片與網路兩大關鍵層。

思科的差異化在於廣度,因為較少有企業同時提供涵蓋園區網路、資料中心交換、廣域網路、協作與資安的整合方案,且全數注入 AI 能力。

去年思科以 280 億美元收購資料可觀測性平台 Splunk,被市場普遍視為 AI 策略的關鍵拼圖,補足了驅動整個產品組合 AI 洞察所需的資料分析能力。

思科策略反映出的產業趨勢

不過市場仍在快速演變,過早鎖定任何單一供應商的 AI 基礎設施堆疊,同樣有其風險。

產業分析師給企業以及 IT 管理者的建議做法是,整體評估 AI 基礎設施需求,不只看原始網路效能,還要考量資安、可管理性與既有系統的整合。思科的全端方案之所以有吸引力,正是因為它同時處理這些面向,但企業也應評估開放式、多供應商架構是否能在技術成熟過程中提供更大彈性。

可以確定的是,基礎設施層已成為企業 AI 雄心的關鍵推動力或瓶頸。AI 部署正在改變企業網路架構與資安需求的基本假設,而基礎設施升級已成為 AI 落地的關鍵門檻與風險來源。企業需要在整合式供應商與多廠商架構之間做出權衡,這個決策將直接影響未來幾年的技術彈性與營運成本。

思科的策略反映出一個更大的產業趨勢:AI 競爭的焦點正從模型能力轉向基礎設施控制權。當模型逐漸商品化,能夠提供穩定、安全、高效運行環境的基礎設施供應商,將是掌握企業 AI 架構的入口。思科試圖占據的正是這個位置。對企業而言,這意味著未來 AI 能否真正落地,很大程度取決於基礎設施策略,而非單一 AI 技術的選擇。

【推薦閱讀】

◆ 資安工具買越多越不安全?64% 受訪專家:放棄最佳單品堆疊,整合平台才是最佳解
◆ CISO 不只是技術頭,為何資安領導者須學會解讀營收來源與擴張佈局?
◆ 8 分鐘奪取 19 個 IAM 權限!當駭客不攻防火牆,而是拿著鑰匙走進來

*本文開放合作夥伴轉載,參考資料:《WPN》《Tech Republic》,圖片來源:Cisco

(責任編輯:鄒家彥)

不賣軟體給律師,Lawhive 如何以 AI 重構流程讓律師收入最高達傳統 2.8 倍?

作者 LC
2026年3月6日 10:11
不賣軟體給律師,Lawhive 如何以 AI 重構流程讓律師收入最高達傳統 2.8 倍?

2025 年,當多數法律 AI 新創還在思考如何把軟體賣給律師事務所時,英國新創 Lawhive 走了一條完全不同的路:它不賣軟體,而是自己成為律師事務所。

2026 年初,Lawhive 剛完成由丹納赫公司共同創辦人 Mitch Rales 領投的 6,000 萬美元 B 輪募資,資金將用於擴展美國市場。

Lawhive 的初衷是讓法律服務普及化

Lawhive 的模式與 Harvey 等法律 AI 公司有相當大的差異。Harvey 的商業模式是 B2B:開發 AI 工具,然後賣給既有的律師事務所,讓律師自行決定如何使用。Lawhive 則跳過這一層,它自己就是一間完整的律師事務所,直接面向終端消費者提供法律服務。

從接案、研究、文件草擬到帳務處理,整套流程都由 Lawhive 自建的 AI 平台驅動。目前 Lawhive 約有 500 名律師透過其平台執業,律師透過 Lawhive 在英國與美國多個州的受監管法律實體執業。

這套被 Lawhive 稱為「消費者法律 AI 作業系統」的平台,同時處理法律工作與後台流程。前端,它將文件擬稿、法律研究、案件管理自動化;後端則處理客戶檔案、開立帳單、行政排程。

可以說,AI 不只幫律師工作,而是推動律師事務所運作。

從賣工具到自建律所:Lawhive 的平台化策略

不過 Lawhive 並非一開始就走這條路。執行長 Pierre Proner 坦言,公司最初嘗試將自動化軟體銷售給傳統小型律師事務所,結果處處碰壁,因為這些事務所對採用新技術都抱持著懷疑態度,部分原因是擔心如果案件處理時間縮短,難以向客戶證明收費的正當性。

碰壁後,Lawhive 決定既然無法加入,就自己來。Proner 指出,這讓公司得以「從零開始重新想像律師事務所的設計」,而非配合既有的工作習慣進行漸進式改良。

傳統事務所的後台與行政成本可佔總成本高達 70%,這正是 AI 最能發揮效率的區塊。Proner 將 Lawhive 的做法與其他法律 AI 公司對比指出,別人實際上是在配合律師事務所的既有工作方式來設計軟體,但 Lawhive 做的恰恰相反。這種由內而外的整合,讓 AI 不再只是外掛工具,而是事務所運作的核心引擎。

對律師而言,透過 Lawhive 平台執業的收入,最高可達傳統事務所的 2.8 倍。原因是過往律師通常同時處理 80 到 200 個案件,AI 工具讓他們能更有效率地推進這些案件。

對客戶而言,這意味著以更低的成本取得日常法律服務。Lawhive 處理的業務涵蓋家庭法、房東房客糾紛、房產交易、消費者權益等常規案件;這些案件的特性是流程相對標準化,正是自動化能發揮最大效益之處。

但 Lawhive 並非主張「AI 取代律師」。對於無爭議離婚申請這類例行工作,Proner 表示系統可達到幾乎完全自動化,人類律師只需進行品質控制審核;但對於需要更多判斷的複雜爭議案件,AI 則退居輔助角色。

這種分層設計,讓系統在高度自動化的同時維持必要的人工把關,也回應了外界對 AI 法律錯誤的擔憂。Proner 強調,當系統對某個環節不確定時,會自動標記提交人工審查。

年營收已超過 3,500 萬美元,年成長達七倍

這次 B 輪募資的領投人 Mitch Rales 是丹納赫集團的共同創辦人,Rales 在聲明中表示,他被 Lawhive「讓法律服務普及化」的使命所吸引,其他投資人包括 TQ Ventures、GV(前身為 Google Ventures)等。這輪募資距離 Lawhive 的 4,000 萬美元 A 輪僅不到一年。

目前 Lawhive 的年營收已超過 3,500 萬美元,過去一年成長達七倍,可以說公司已進入規模化擴張期。

美國市場與規模化野心

根據 Proner 估計,美國消費者法律市場每年約有 2,000 億美元的產值,但真正的潛在需求遠不止於此。「有超過一兆美元的未被滿足需求,這些人每年都有嚴重的法律問題,卻負擔不起律師費用。」這正是 Lawhive「法律服務普及化」的核心,他希望以 AI 驅動的效率,讓原本被排除在法律服務之外的廣大人口,能夠以可負擔的價格獲得協助。

Lawhive 去年正式進入美國市場,目前已在 35 個州營運,並計劃擴展至全國。公司在奧斯汀設有辦公室,並正於紐約設立新總部。Proner 表示,公司今年的目標是再成長五到七倍。

Lawhive 的關鍵創新不在 AI 技術本身,而在於商業模式的重新構想。它不是賣工具給律師,而是用 AI 取代傳統律師事務所的組織運作。

若監管環境允許,且品質控制機制持續有效,這種直接以 AI 重構法律服務流程的模式,可能為法律產業帶來不同於工具型公司的發展路徑。相較於仰賴律師自行採用工具,平台化服務能將效率成果直接交付給終端客戶。

【推薦閱讀】

◆ 資安工具買越多越不安全?64% 受訪專家:放棄最佳單品堆疊,整合平台才是最佳解
◆ CISO 不只是技術頭,為何資安領導者須學會解讀營收來源與擴張佈局?
◆ 8 分鐘奪取 19 個 IAM 權限!當駭客不攻防火牆,而是拿著鑰匙走進來

*本文開放合作夥伴轉載,參考資料:《FORTUNE》《Globallegalpost》,圖片來源:Unsplash

(責任編輯:鄒家彥)

AI 生成的密碼為何不安全?「看起來複雜」才是最大漏洞

作者 LC
2026年3月10日 10:16
AI 生成的密碼為何不安全?「看起來複雜」才是最大漏洞

近期一項由資安公司 Irregular 進行的研究透露,我們日常倚賴的大型語言模型,包括 Claude、ChatGPT 與 Gemini,在生成密碼這件看似簡單的任務上,存在嚴重的安全缺陷。

這些 AI 產出的密碼乍看之下符合所有安全準則,實際上卻高度可預測。密碼被暴力破解的成本,遠低於多數人的想像。這項發現不僅對個人用戶構成警示,更對企業開發流程與供應鏈安全帶來深遠影響。

LLM 密碼的「強度錯覺」

多數人判斷一組密碼是否夠強,最直覺的做法就是將它丟進線上密碼強度檢測工具,這些工具會根據字元集合的多樣性與長度來估算破解難度。一組包含大小寫字母、數字與特殊符號的 16 字元密碼,通常會被判定為「需要數百年才能破解」。

然而,這套評估邏輯建立在一個前提上:密碼是隨機生成的。當密碼來自 LLM 時,這個前提便不再成立。

Irregular 的研究團隊分別要求 Claude、ChatGPT 與 Gemini 生成符合標準安全規範的 16 字元密碼,結果令人驚訝:這些密碼雖然表面上複雜,卻呈現出固定的模板與偏好。

研究人員針對 Claude 的 Opus 4.6 模型進行了 50 次獨立測試,每次都在不同的對話視窗中提出相同請求。結果顯示,50 組密碼中僅有 30 組是獨特的,其中 18 組甚至是完全相同的字串。更值得注意的是,絕大多數密碼的開頭與結尾字元呈現高度一致性,且沒有任何一組密碼包含重複字元。

這種「無重複字元」的特徵看似增強了安全性,實際上卻恰恰證明了這些輸出並非真正隨機。真正的隨機序列理應偶爾出現字元重複,而 LLM 刻意避免重複的行為,正是其遵循「看起來像密碼」這種學習模式的證據。OpenAI 的 GPT-5.2 與 Google 的 Gemini 3 Flash 同樣展現類似傾向,尤其在密碼開頭部分的一致性特別明顯。

可預測性如何讓暴力破解變得可導引?

理解這項研究的關鍵在於「熵值」的概念(測量系統「無序程度」或「不確定性」的指標,熵高=混亂/不確定,熵低=有序/可預測)。研究團隊使用資訊熵(Shannon entropy)與模型自身的對數機率兩種方法,估算 LLM 生成密碼的實際熵值。結果顯示,這些密碼的熵值僅有約 20 至 27 位元,而一組真正隨機的 16 字元密碼應達到 98 至 120 位元。

這意味著什麼?在實務層面,這代表 LLM 生成的密碼即使在數十年前的舊電腦上,也可能在數小時內被暴力破解。

傳統暴力破解是一種盲目的搜尋過程,攻擊者必須嘗試所有可能的字元組合。然而,當攻擊者掌握了 LLM 的生成偏好,包括常見的起始字元、結尾模式、特殊符號的位置分布等,整個攻擊策略便從盲打轉變為有方向的搜尋。攻擊者可以據此調整規則設定與策略,大幅縮小搜尋空間。

此外,研究人員還做了一個額外實驗。他們不是請文字模型直接輸出密碼,而是請 Google 的圖像生成模型畫一張「便條紙上寫著密碼」的圖片。結果發現,圖片裡出現的密碼字串,竟然跟 Gemini 文字模型生成的密碼呈現相同的模式。

這個發現的意義在於,連圖像模型「畫」出來的密碼都有固定偏好,代表這種傾向不是某個特定模型的問題,而是深植於 AI 訓練過程中的共通行為。既然問題出在模型的底層邏輯,那麼無論你怎麼改寫提示詞、調整參數,都無法根本解決這個偏好,因為它不是表面設定的問題。

LLM 的設計目標與密碼安全的要求互相矛盾

這項研究的影響範圍遠不止於個人帳戶安全。在 AI 輔助開發日益普及的今天,開發者若習慣性使用 LLM 生成密碼,這些具有可辨識模式的字串可能被帶入測試程式碼、技術文件、設定範例,最終流入 GitHub 等公開平台。

研究團隊實際以常見的 LLM 密碼序列在網路與 GitHub 上進行搜尋,確實找到了相關痕跡,包括測試碼、設定說明與技術文件等。

這種「模式可被回溯搜尋」的特性創造了一個新的攻擊面向。攻擊者不再需要逐一嘗試破解,而是可以透過模式比對,快速識別哪些系統可能使用了 LLM 生成的弱密碼

當 Anthropic 執行長 Dario Amodei 預言 AI 將撰寫大部分程式碼時,這項研究提醒我們,AI 生成的密碼並不如預期般安全。

更根本的問題在於 LLM 的設計目標與密碼安全的要求互相矛盾。LLM 被訓練來產出「人類覺得合理、通順」的文字,下一個詞要接得順、符合語法與語意邏輯,這種「可預測性」正是它的核心能力。

然而密碼安全的要求剛好相反,密碼必須不可預測,越難猜越好。所以當人類要求一個專門產出合理內容的工具去產出不可預測的內容,結果注定是不及格的。

Irregular 將此稱為「能力與行為落差」,即 LLM 有能力輸出看起來像密碼的字串,但其行為邏輯讓這些字串必然帶有可預測模式。隨著 AI 輔助開發持續擴大,這種「看起來做到了但其實沒做好」的落差,或許將在更多領域浮現。

改用密碼學安全的隨機數生成器與專業密碼管理器

面對這項發現,最直接的應對措施是徹底放棄,將「請 LLM 給我密碼」視為有效的密碼產生流程。

密碼生成應交由專門設計的密碼管理器,如 1Password、Bitwarden,或作業系統原生的密碼管理功能。這些工具使用密碼學安全的偽隨機數生成器,其設計原理與 LLM 截然不同,能夠產出真正不可預測的序列。

值得一提的是,Gemini 3 Pro 在生成密碼時已會主動發出警告,建議用戶不要將聊天介面產生的密碼用於敏感帳戶,並推薦使用第三方密碼管理器。

對於企業而言,應立即對既有系統進行稽核,盤點是否存在使用 LLM 生成密碼的流程或痕跡。在政策與工具層面,可在持續整合流程中加入檢測機制,掃描設定檔與文件是否出現符合 LLM 生成模式的可疑字串。對於高敏感帳戶,則應強制啟用多因素驗證或 Passkeys,以降低單點失守的風險。

【推薦閱讀】

◆ 資安工具買越多越不安全?64% 受訪專家:放棄最佳單品堆疊,整合平台才是最佳解
◆ CISO 不只是技術頭,為何資安領導者須學會解讀營收來源與擴張佈局?
◆ 8 分鐘奪取 19 個 IAM 權限!當駭客不攻防火牆,而是拿著鑰匙走進來

*本文開放合作夥伴轉載,參考資料:《The Register》《TechRadar》,圖片來源:Unsplash

(責任編輯:鄒家彥)

沾邊 AI 已難募資,為何無法「產生結果」的 SaaS 不受矽谷創投青睞了?

作者 LC
2026年3月12日 10:31
沾邊 AI 已難募資,為何無法「產生結果」的 SaaS 不受矽谷創投青睞了?

在矽谷乃至全球資本市場中,AI 熱潮正從「概念驅動」逐漸走向「價值檢驗」。過去幾年,只要公司與 AI 相關,往往更容易吸引投資人注意,但市場已經開始重新評估 AI 公司的真正價值。

創投圈的關注焦點,從單純的技術創新轉向更嚴格的商業模式檢驗。這不僅意味著投資偏好的變化,也反映出 SaaS(軟體即服務)產業的價值邏輯正在被重新定義。

近期軟體股與半導體股表現的分化,也透露出資本市場的資源重新配置。投資人逐漸將資金從單純「採用 AI 技術」的公司,轉向那些能夠提供 AI 基礎能力,或以 AI 為核心構建產品的企業。

從工具提供者到任務執行系統

在新的投資邏輯下,資本市場更加關注 AI 原生基礎設施,以及深度結合產業流程的垂直 SaaS 應用。背後原因在於,當 AI 模型逐漸普及並成為通用能力後,企業的真正競爭優勢往往來自「專有資料」與「流程控制能力」。

傳統軟體多半被視為輔助工具,其價值往往來自易用的介面與功能整合能力。然而在 AI 時代,軟體的核心價值逐漸轉向能否「完成任務」與「產生結果」。投資人因此更傾向支持那些能直接解決問題,而不只是提供工具的平台。

所謂「行動系統」,指的是軟體不僅提供資訊或介面,而是能在流程中自動執行任務並完成結果。當這類系統深入企業關鍵工作流程時,往往能形成高度黏著度與轉換成本。

相反地,如果 SaaS 產品只是將既有流程進行數位化,卻沒有掌握流程背後的資料與邏輯,在 AI 代理逐漸普及的情況下,其競爭力可能會變得相對脆弱。

AI Wrapper 模式逐漸失去吸引力

事實上,在創投圈中有一類產品近年開始受到更多質疑,這些產品通常是在既有 API 或 AI 模型之上,加上一層介面或輕量功能,因此被稱為「AI Wrapper」。

當產品只是透過 UI 或簡單自動化改善使用體驗,而缺乏深度流程能力時,其競爭優勢往往難以維持。隨著大型科技公司直接在平台層整合 AI 功能,這類產品更容易被替代。

例如當 Anthropic 或 Google 在系統底層提供更完整的 AI 能力時,僅依賴表層自動化或介面差異的工具,其吸引力就會逐漸下降。因此,投資人現在普遍對容易被 AI 代理取代的任務型工具,保持更高的警惕。

如果一個產品的核心價值只是減少操作步驟,或能被簡單的自然語言指令替代,那麼它在 AI 時代的競爭優勢就可能迅速縮小。

AI 代理與平台變化重塑 SaaS 競爭

過去 SaaS 企業的重要競爭優勢之一,是能夠連接大量第三方工具並建立完整生態系。許多軟體公司以「整合能力」作為核心賣點。然而,一些新興標準,例如 Anthropic 提出的 MCP(Model Context Protocol)等標準逐漸出現,軟體之間的連接能力可能逐漸從競爭優勢,轉變為更接近基礎設施的能力。

在統一協議與 AI 代理的幫助下,過去需要工程團隊投入大量時間建立的整合功能,未來可能變得更容易實現。當資料連接的技術門檻逐漸降低,單純充當軟體橋樑的商業模式也可能面臨挑戰。

另一方面,AI 輔助開發正在壓縮軟體開發的時間成本。新創團隊可以利用 AI 工具更快地建立產品功能,使得傳統 SaaS 所依賴的大型程式碼庫與複雜介面,不再是難以跨越的技術門檻。

在這樣的情況下,投資人也開始重新思考,當開發成本下降、功能更容易被複製時,軟體公司的防禦能力究竟應該建立在哪裡。

投資邏輯轉向「流程所有權」

在這場轉型中,新的競爭邏輯就逐漸浮現:誰能掌握企業的關鍵流程,誰就更可能掌握定價權。這意味著軟體公司需要對特定產業的運作模式有更深入的理解。

未來更具競爭力的企業,往往是那些深入垂直產業,並將 AI 深度嵌入工作流程中的公司,例如法律、醫療或工業領域。在這種模式下,AI 不只是技術工具,而是結合產業知識與流程管理的系統。企業的價值也逐漸來自於對任務結果的掌控能力,而不只是軟體本身。

與此同時,商業模式也開始出現變化。部分投資人更偏好按使用量(consumption-based)或按成果計費的模式。當 AI 能自動完成大量任務時,傳統以使用者數量為基礎的訂閱模式,未必能反映軟體的真正價值。

因此,資本市場正逐漸將資金集中在那些具備產業知識、資料優勢與流程能力的公司。

SaaS 產業面臨新的調整期

整體而言,AI 正在降低部分 SaaS 產品的開發門檻。過去依賴功能數量或介面設計建立的競爭優勢,可能難以長期維持。資料所有權與任務執行能力,正逐漸成為軟體企業更重要的資產。

隨著 AI 代理逐漸進入企業工作流程,軟體與人類工作的關係也正在改變。未來的軟體產品,可能需要從「協助人類完成工作」轉變為「代表人類完成部分任務」。

【推薦閱讀】

◆ 資安工具買越多越不安全?64% 受訪專家:放棄最佳單品堆疊,整合平台才是最佳解
◆ CISO 不只是技術頭,為何資安領導者須學會解讀營收來源與擴張佈局?
◆ 8 分鐘奪取 19 個 IAM 權限!當駭客不攻防火牆,而是拿著鑰匙走進來

*本文開放合作夥伴轉載,參考資料:《Techcrunch》《SAXO》,圖片來源:Unsplash

(責任編輯:鄒家彥)

五角大廈如何在紅色供應鏈中,透過「Blue UAS」清單精準挑選美軍所需的無人機?

作者 LC
2026年3月17日 09:51
五角大廈如何在紅色供應鏈中,透過「Blue UAS」清單精準挑選美軍所需的無人機?

在現代戰爭的演變過程中,無人機系統(UAS)已從單純的偵察工具,快速演變為決定戰局勝負的關鍵力量。面對全球地緣政治局勢的劇烈變動,美國國防部以前所未有的速度推動低成本無人機的大規模部署,並將無人機系統供應鏈安全視為國家防禦的核心命題。

這場轉型的核心,是由國防部統籌、近期移交至國防合約管理局(DCMA)主導的「藍色無人機系統」(Blue UAS)計畫。這個計畫不僅是一個核准採購的清單,更是美國試圖在中國主導的全球無人機市場中,重新奪回主動權並重塑國防採購模式的關鍵戰略手段。

美軍加速部署低成本無人機策略

過去十年,美軍的裝備採購往往傾向於高價、高科技且研發週期漫長的平台。然而,烏克蘭戰場的實戰經驗揭示在高強度的戰場環境中,無人機已成為一種高度消耗性的物資,數量優勢往往比單機性能更具威懾力。

因此,美國國防部開始轉向大規模採用小型、低成本且可隨時拋棄的無人機系統。為了達成此目標,藍色無人機系統清單應運而生,成為美軍各軍種以及聯邦機構採購與部署無人機的重要安全清單之一。

這份清單的存在,極大地簡化了傳統繁瑣的軍事採購流程。透過預先篩選出一系列符合安全標準的商用現貨(Commercial Off-the-Shelf,簡稱 COTS)的無人機,基層部隊不再需要經歷漫長的個別審查流程,即可快速獲得可投入戰場的裝備。

根據最新進展,已有數十款型號通過了訓練用途審核,其中包含如 Shield AI 的 V-Bat、Skydio 系列以及 AeroVironment 的 Red Dragon 等指標性機種,更有近三十款無人機已通過更為嚴苛的作戰部署審核。

美國國防部的目標非常明確,他們要在短時間內將數以十萬計的低成本無人機送入前線,形成壓倒性的戰力規模,這也正是「無人機優勢計畫」(Drone Dominance Program)所追求的技術與數量雙重壓制。

供應鏈安全:從資安風險到國家戰略

在推動大規模部署的同時,美國國防部深知,若無人機系統的底層技術與供應鏈,仍掌握在潛在對手手中,那麼這種數量優勢將成為巨大的安全隱患。因此,供應鏈安全儼然已成為無人機政策的靈魂。

Blue UAS 計畫的評估標準極為嚴苛,涵蓋了法律合規性、網路安全漏洞,以及最重要的零件來源追蹤。這不僅僅是為了防止數據洩漏或遠端干擾等資安風險,更是為了應對中國在全球商用無人機市場中佔據近九成市場所帶來的憂慮。

美國白宮的決策者們意識到,中國隨時可能透過出口管制,限制如馬達、電路板或關鍵偵測器等核心組件的供應。一旦發生衝突,若美軍的無人機生產高度依賴外部供應鏈,其戰力將在瞬間癱瘓。

因此,Blue UAS 清單扮演了「供應鏈過濾器」的角色,確保核准的系統符合《國防授權法》(NDAA)中關於外國實體限制的規定。透過這種方式,國防部正在強行切割與高風險供應鏈廠商的聯繫,試圖在美國本土及盟友體系內建立一個封閉且安全的生態系。

無人機要做到「全美製」是大挑戰

不過,美國無人機產業在脫離中國供應鏈的過程中,面臨著極大的成本與產能壓力。一個令人感到尷尬的事實是,即便是在 Blue UAS 清單上的許多核准系統,其內部零件,尤其是馬達等被視為「啞零件」(dumb components)的硬體,目前仍有相當比例源自中國。雖然專家認為馬達本身較不涉及間諜活動風險,但其背後的供應韌性問題一樣令人擔憂。

目前,美國本土生產的無人機零件不僅成本遠高於亞洲產製品,產能規模也遠不足以支撐「無人機優勢計畫」所需的數十萬架產出。倘若全球貿易發生中斷,美國的無人機生產線可能會立即陷入停滯。

因此,像美國小型無人機系統(sUAS)零件製造商 NW Blue 這樣的企業在清單中的地位顯得格外重要;他們提供的 Cube Orange+、Here4 導航系統等符合 NDAA 規範的關鍵組件,正成為系統集成商建構「全美製」或「去中國化」系統的基礎。

不過,如何提升這些本土零件的規模經濟,進而降低整體採購成本,仍是美軍在短期內難以完全克服的挑戰。

國防版本亞馬遜電商,採購合格零件像在網購

為了突破產能與技術瓶頸,美國國防部正藉由「Blue UAS」計畫推動一場採購革命。這場變革最顯著的標誌是管理權責的轉移,2026年,該計畫由專注於創新的國防創新單位(DIU)移交給負責大規模生產監管的國防合約管理局(DCMA)。這一轉向象徵著「藍色無人機」已從實驗性的試點計畫,正式進入國防部的常規採購體系與物流命脈。

DCMA 的目標是建立一個像是國防版本亞馬遜電商,讓政府人員能像網路購物一樣,直覺且快速採購合格零件。

此外,「無人機優勢計畫」下的競爭性測試,如在喬治亞州舉行的「Gauntlet」測試,正吸引著大量新創企業、國防工業巨頭甚至烏克蘭的實戰軟體開發者參與。這種採購模式不再是長達十年的研發合約,而是以「月」為單位的快速迭代。

透過小額採購原型、頻繁的實彈測試與即時的反饋修正,國防部鼓勵企業不斷優化技術,並透過競爭來汰弱留強。這種模式不僅加速了技術轉化,也為本土無人機基礎設施商提供了持續的訂單動能。

美軍面對的主要問題:成本高昂、產能不足

總結來說,美國國防部推動「藍色無人機系統」與相關策略,反映了現代戰爭邏輯的轉變。首先,無人機已成為消耗性戰力的核心,美軍的戰略重心正從追求極致性能的國防武器,轉向追求規模化且低成本的系統。

可以將此想像是,國防工業必須具備如同消費電子產業般的快速生產與迭代能力。

其次,國防科技的競爭早已走出實驗室,延伸到了供應鏈端。零件的來源地不再僅是成本考量,而是關乎戰爭背後的潛在風險。

儘管美國正透過採購改革、建立 Blue UAS 官網市場以及大規模資金投入(兩年內預計投入超過 10 億美元)來催生本土生態系,但如何在維持供應鏈高度安全的同時,解決成本高昂與產能不足的關鍵問題,將是未來幾年美軍能否真正實現「無人機優勢」的最嚴峻考驗。

【推薦閱讀】

◆ 資安工具買越多越不安全?64% 受訪專家:放棄最佳單品堆疊,整合平台才是最佳解
◆ CISO 不只是技術頭,為何資安領導者須學會解讀營收來源與擴張佈局?
◆ 8 分鐘奪取 19 個 IAM 權限!當駭客不攻防火牆,而是拿著鑰匙走進來

*本文開放合作夥伴轉載,參考資料:《UAS》《BusinessInsider》,圖片來源:U.S. DepartmentofWar

(責任編輯:鄒家彥)

【省下 50% 農藥成本】AgZen 靠電腦視覺與 AI,顛覆數百億美元的農業噴灑市場

作者 LC
2026年3月19日 10:39
【省下 50% 農藥成本】AgZen 靠電腦視覺與 AI,顛覆數百億美元的農業噴灑市場

長期以來,農民只能依靠個人經驗與粗略的操作準則,決定農藥的「每英畝施用量」,至於其中有多少比例真正接觸到植物葉面、發揮藥效,長期缺乏精準量化方式。

這種模糊性帶來的代價遠比想像中高昂。全球每年在農作物保護與噴灑上的支出達數百億美元規模,其中大量農藥因飄散、逕流或根本未能附著於葉面而白白流失,最終滲入土壤、進入河川,形成難以逆轉的環境污染。

農業噴灑從來就不是一項噴了就等同完成任務的工作,它牽涉作業速度、化學品種類、噴嘴規格、植株年齡、當下的溫度與濕度,每個變數都在無形地影響施藥結果。而過去卻沒有任何工具能即時監測、量化這些交互作用。

AgZen 以 AI 推動精準噴灑

在這樣的背景下,AgZen 嘗試從根本改變農業噴灑的邏輯。這家由麻省理工學院教授 Kripa Varanasi 與 Vishnu Jayaprakash 於 2020 年共同創立的公司,花費多年研究液滴與植物表面的物理交互機制,並將這些基礎科學轉化為可商業化部署的農業科技產品。

AgZen 的核心主張並不複雜,但需要龐大的技術支撐才能實現:讓每一滴農藥都被計算、被追蹤、被優化。Varanasi 曾如此描述這個目標:讓精準與可預測性的框架標準套入噴灑作業,讓每一滴農藥都有意義,為農民帶來可量化的增產與降低成本的成效。

在實地測試中,AgZen 的成果令人印象深刻。跨越麻薩諸塞州、加利福尼亞州、義大利與法國的田間試驗顯示,透過優化液滴與葉面的附著效率,可顯著降低農藥用量(部分案例達到約 50%),同時維持甚至提升防治效果。這對於每年平均在農藥上投入大量資金的農戶而言,是一筆實質可見的財務回報。

核心技術:電腦視覺與智慧推薦系統

AgZen 的技術架構建立在兩大重點之上,第一是電腦視覺,自從卷積神經網路(convolutional neural network,CNN)興起,電腦視覺已在多種精密空間分析應用中展現驚人實力,而 AgZen 的旗艦產品 RealCoverage 正是這項能力的具體體現。

RealCoverage 系統幾乎可以安裝在任何噴藥機的噴桿上,在噴嘴前後各配置一組感測器。前置感測器記錄噴灑前的葉面狀態,後置感測器則即時捕捉噴灑後的覆蓋情形,兩者的比較讓系統得以精確計算出農藥在葉面的實際附著率。這套視覺系統能夠偵測最小僅 150 微米的微小液滴,同時深入作物叢內部進行拍攝與分析,而不只是掃描作物表面。

第二大重點則是 AI 推薦引擎。蒐集到的即時數據並不只是用來「記錄」,而是即刻被輸入 AI 模型進行分析,系統會根據當前的溫度、濕度、作業速度、噴嘴型號與化學品配比,為操作員提供具體的調整建議:該換哪種噴嘴、應以多快速度前進、這片土地上的這種農藥最適合多少噴灑量。

另外,液滴在葉面的擴散速度、蒸發率如何隨溫度和濕度變化,這些原本「模糊不清」的農田物理學,如今都被納入軟體的計算邏輯中,讓每一次的噴灑預測都有科學根據,而非猜測。

精準農業的潛力與影響

AgZen 並非孤軍奮戰。在推廣其產品的過程中,公司選擇與農業巨頭先正達集團(Syngenta)合作。先正達活躍於全球九十餘個國家,是全球最重要的農作物保護與種子企業之一,其首席資訊及數位長 Feroz Sheikh 公開表示,能夠看見並控制每片葉子上的每一滴液滴,對農作物保護而言是真正的革命性轉變,並認為這為農民在效率提升與廢料減量方面開啟了巨大潛力。

這種企業層面的背書,也反映了整個農業產業正在發生的思維轉變。AI 不再只是科技圈的語彙,而是正在滲入農場管理的日常決策。從土壤條件分析到天氣模式預測、從噴藥路徑規劃到收成預估,數據驅動的農業決策,正逐漸取代農民過去依賴個人判斷的傳統做法。

從數字來看,AgZen 已在大型商業農場的試驗中,為客戶節省了高達五成的農藥成本,並同步提升了防治效果。

美國農業部也已委託 AgZen 協助,評估減少農藥滲入水系的實務做法,顯示這套技術的價值已獲得認可。

目前,AgZen 正透過租賃計畫將系統推廣至數千英畝的農地,計畫在商業規模上全面驗證其效益。放眼美國農民每年砸下 160 億美元購買農藥、保護約 2,000 億美元產值農作物的市場規模,精準農業帶來的經濟轉型潛力可謂相當可觀。

AI+感測+機器人:農業自動化的關鍵組合

更長遠來看,AI、感測技術與農業機器人的深度結合,預示著一個全然不同的農業願景。如果噴藥機器可以靠電腦視覺感知、靠 AI 決策、靠機器人執行,那麼整個農業作業鏈的自動化並非遙不可及。

農業是人類文明最古老的生產活動之一,正在以前所未有的速度走向高度數據化。隨著感測器愈來愈靈敏、AI 模型愈來愈精準、機器人技術日趨成熟,田間的每一滴水、每一粒種子、每一次噴灑,都將成為可被記錄、分析與優化的數據。

傳統農業中靠著代代相傳的「老農智慧」,在未來或許仍有其價值,但它將不再是唯一的依憑,AI 正悄悄把每一次的農業作業變得更聰明一些。

*本文開放合作夥伴轉載,參考資料:《Forbes》《MIT》,圖片來源:Unsplash

(責任編輯:鄒家彥)

【初級工程師工作轉變】不再需要改 bug、寫測試,聽起來很好卻很危險

作者 LC
2026年3月24日 09:12
【初級工程師工作轉變】不再需要改 bug、寫測試,聽起來很好卻很危險

隨著生成式 AI 快速滲透軟體開發流程,工程師的工作內容正出現明顯轉變。一名 23 歲、任職於紐約新創公司的軟體工程師 Ben Zabihi 表示,如果是在五年前入行,他的工作大多會花在撰寫程式碼與文件上;但現在,他大量時間都投入在使用 AI 工具,不只用來生成程式碼,也作為研究助手,協助理解產業知識與業務術語。

這樣的變化並非個例。AI 正逐步滲透工程師的整個工作流程,從功能設計、程式碼生成,到除錯與文件產出,都能在短時間內提供可用結果。工程師不再需要死記 API 語法,也不必耗費大量時間處理重複性任務。

然而,效率提升的同時,也帶來新的問題:當 AI 承接越來越多基礎工作,工程師的核心價值還剩下什麼?

初級工程師的角色正在位移

過去,初級工程師是透過反覆處理基礎任務來磨練技能的,譬如修小 bug、寫單元測試、理解既有程式碼的邏輯。這些看似瑣碎的工作,實際上是培養工程判斷力的重要土壤。

但這塊土壤正在縮小。根據勞動研究機構 Revelio Labs 的數據,美國的初級職位招募自 2023 年以來已下滑約 35%。許多公司在縮減初階人力的同時,把原本屬於初階工程師的任務交給了 AI,或者壓縮到資深工程師身上。

在這樣的環境下,Zabihi 則認為他應該提早去思考系統架構、安全風險、商業目標這些過去屬於資深工程師的議題。某種程度上,AI 的存在加速了初級工程師的角色成熟,讓他們更早接觸複雜問題,而非長期停留在執行層面。

不過這究竟是一種被迫的進步,還是自然的成長曲線?

效率的陰暗面:基礎能力正在流失?

36 歲的資深工程師 Georgian Tutuianu 對這個趨勢抱持更謹慎的態度。他說,當他剛入行時,這份工作 95% 的內容是「痛苦的」,而正是那些痛苦,鍛鍊出他面對未知問題時的直覺。

他觀察到,如今審查同事提交的程式碼時,程式碼的行數已從過去的幾百行暴增到一千行以上,而許多工程師根本無法解釋自己新增的程式碼在做什麼。他直接說,「這都是汙染,工程師把最難的部分,也就是那些不懂的地方全都直接外包給了 AI。」

專案管理平台 Asana 的研究也指出,近三分之二的員工認為 AI 工具不可靠,超過一半表示 AI 會產出看似合理但實際錯誤的內容,而美國員工平均每週要花 4.5 小時,修正 AI 造成的錯誤輸出。

一位在大型科技公司任職的資深工程師也分享,他的公司曾出現 AI 在缺乏監督的情況下,誤觸系統操作並影響服務穩定的情形。

問題的核心不在於 AI 不夠好,而在於判斷 AI 是否做得對,需要人類本身具備足夠深厚的基礎。當這個基礎在訓練階段就被跳過,後果就會變得糟糕。

AI 時代工程師的新技能地圖

那麼,在這樣的時代背景下,工程師究竟需要培養什麼能力?

Google 開發者與體驗部門副總裁 Keith Ballinger 的看法是,軟體工程師從來就不是為了「用某種語言寫程式」而存在的。工程師的本質,是運用技術解決問題。

把大問題拆解成小問題、設計可行的解決方案,才是工程思維的核心,而這個能力,在 AI 時代比以往任何時候都更加重要。

對此波士頓顧問集團旗下科技部門 BCG X 的技術長 Matt Kropp 則提問:「如果 AI 能處理大部分的程式碼,工程師的價值究竟在哪裡?」業界的共識逐漸指向同一個方向,工程師的價值將從精通語法,轉移到更廣泛的問題定義能力與解決方案的架構思維。

工程師招募平台 Karat 執行長 Mohit Bhende 則從招募角度提出建議:科技業的初階職位正在縮減,反而是金融、醫療等 AI 導入較慢、對人類監督需求較高的領域,將成為新興工程師的機會所在。

Mohit Bhende 預期,未來最搶手的工程人才,是那些同時具備技術底蘊與業務理解的複合型人才

工程師不再只是寫程式,而是定義問題的人

AI 正在改變的,不只是單一工程師的技能需求,而是整個軟體業的結構。當程式碼可以被生成,文件可以被自動產出,系統也能被 AI 輔助測試,工程師的不可替代性必然需要重新定義。

這對初級工程師而言,既是危機,也是機會。危機在於,傳統的訓練路徑可能已經失效,那條透過重複、錯誤與修正慢慢建立判斷力的學習曲線,正被 AI 的捷徑所取代。

但機會也真實存在。工程師 Zabihi 說,AI 讓他的產出顯著提升,讓他能更快進入過去需要多年才能觸及的複雜議題。

問題不在於要不要用 AI,而在於如何在使用 AI 的同時,仍然保有獨立思考與深度理解的能力。未來工程師的核心價值,或許不再是能寫出多好的程式,而是如何將問題定義清晰,以及設計有洞見的解決方案。

【推薦閱讀】

◆ 工程師面試不只談薪水:矽谷開始把「AI 算力」寫進薪酬
◆ 今天的菜鳥是明天的大將:雲端公司全面導入 AI,仍堅持招募初階工程師
◆ 摩根士丹利、花旗銀行如何升級萬名工程師 AI 技能?揭華爾街開發者進入「持續學習模式」

*本文開放合作夥伴轉載,參考資料:《BusinessInsider》《FastCompany》,圖片來源:Unsplash

(責任編輯:鄒家彥)

【不是問 ChatGPT 就好】哪款 AI 最適合回答醫療問題?史丹佛實測 31 款模型

作者 LC
2026年3月26日 10:34
【不是問 ChatGPT 就好】哪款 AI 最適合回答醫療問題?史丹佛實測 31 款模型

AI 工具進入醫療場域的速度,正在超越多數人的預期。美國每天有數百萬人透過 ChatGPT 等工具詢問醫療問題,約三分之二的美國醫師表示會定期使用大型語言模型,其中約五分之一會就病患照護問題諮詢 AI。

截至 2025 年,已有超過 1,200 種 AI 醫療工具獲得 FDA 批准,整個產業規模已達數十億美元。

但在這波快速擴張中,有一個問題始終沒有被認真回答:這些系統在真實臨床情境裡,到底有多可靠、又有多危險?由史丹佛大學、哈佛大學與多所機構組成的研究團隊,發表了一項名為 NOHARM 的研究試圖提供答案。

考試考得好,不代表臨床做得好

過去對醫療 AI 的評估,多數停留在「能不能通過醫師執照考試」這個層次。但研究團隊指出,通過考試和安全照護真實病患是截然不同的兩件事。

一項針對 500 多項醫療 AI 研究的回顧發現,近一半的研究使用考試題型測試模型,只有 5% 使用真實患者數據。NOHARM 研究的設計,正是為了補上這個缺口。

研究團隊從史丹佛醫療中心的電子會診系統中,抽取 100 個真實臨床問題,這些都是初級照護醫師針對真實病患提交的案例。接著由 29 位通過認證的專科醫師逐一審閱 AI 可能給出的各種臨床建議,依據適當性與潛在危害程度評分。

專家間的一致率超過 95%,最終共產生 12,747 筆標註,涵蓋 4,249 個臨床決策節點。研究團隊以此框架測試了 31 種 AI 系統,涵蓋主流商業模型、開源系統與專業醫療 AI 平台。

頂尖模型已超越一般醫師,但落差因模型而異

測試結果顯示,整體表現最佳的是 AMBOSS LiSA 1.0,一個基於醫學知識庫建構的檢索增強型系統,整體得分 62.3%。其次依序為 Google Gemini 2.5 Pro(59.9%)、Glass Health 4.0(59.0%)、OpenAI GPT-5(58.3%)與 Anthropic Claude Sonnet 4.5(58.2%)。

排名末段的迷你模型,包括 GPT-4o mini、o1 mini、o3 mini、o4 mini,得分落在 42 至 49% 之間。

這些分數乍看偏低,但研究團隊解釋,每個案例涵蓋大量決策節點,且對危險建議有懲罰機制,因此即使是強大的模型也難以拿高分。

值得注意的是,排名前五到六名的模型在統計上差異不大,第一名與第五名之間的差距不具實際意義;但頂尖與末段之間的落差則相當顯著——表現最差的模型所犯下的嚴重錯誤,超過最佳模型的三倍以上。

研究也將頂尖 AI 模型與 10 位使用傳統資源,但未借助 AI 的內科醫師進行比較。結果顯示,最佳 AI 模型在整體表現上比內科醫師高逾 15 個百分點,在安全性上高出超過 10 個百分點,人類醫師的基準分數為 46.0%。

研究人員強調,這不代表 AI 即將取代醫師,人類醫師仍具備 AI 無法複製的臨床判斷、情境理解與責任承擔。但這確實意味著,運用得當的 AI 輔助決策系統,有潛力減少診療過程中的錯誤。

最大的風險不是說錯,而是沒說

研究在安全性、完整性與克制性三個維度分別評估各模型,結果揭示了一個反直覺的核心發現。在所有存在嚴重危害風險的案例中,77% 的危害來源不是 AI 提出了危險建議,而是 AI 漏掉了重要的處置。換句話說,在臨床現場,AI 的沉默往往比它說錯話更危險。

不同模型在這三個維度上的強弱也各有差異。Google Gemini 2.5 Pro 在安全性上表現最佳;AMBOSS LiSA 1.0 在完整性上最高;OpenAI o3 mini 在克制性上得分最高,但完整性卻最低,它在提出建議時過於保守,以至於經常漏掉關鍵的介入措施。

這帶出了研究中另一個重要發現:克制性與安全性之間的關係並非「越謹慎越安全」,而是一條倒 U 型曲線。安全性在中等克制程度時達到峰值,太保守和太激進都會增加危害風險。

開發者習慣透過讓 AI 更謹慎來提升安全性,加入免責聲明、限制建議、預設回應「請諮詢醫師」,但這項研究顯示,過度謹慎本身就可能成為危險的來源。

多模型協作,是提升安全性的有效路徑

研究也測試了「多代理人」配置,由一個 AI 提出初步建議,再由一至兩個其他 AI 審查修正,模擬自動化的第二意見機制。結果顯示,這類配置在達到頂尖安全表現方面的成效,是單一模型的近六倍。

更關鍵的是,來自不同組織的模型組合優於同一廠商的多個版本。表現最佳的三模型組合為 Meta Llama 4 Scout(開源)、Google Gemini 2.5 Pro(商業)與 AMBOSS LiSA 1.0(醫學知識系統),這就如同腫瘤委員會結合外科、放射科與腫瘤科的專業,不同背景的 AI 組合出了更強的協作優勢。

在知識來源上,研究也呈現出一致的趨勢。安全性較高的系統,往往是基於精心整理的醫學知識庫,而非單純依賴網路資料訓練的通用模型。這對 AI 開發者而言是一個明確的訊號,即醫療應用不能只靠模型規模取勝,知識的品質與結構同樣重要。

技術能力以外,還需要更完善的評估與監管

在政策層面,FDA 近期表示將放寬對部分臨床決策支援軟體的監管,將更多責任轉移給開發者與醫療機構。這個方向在 AI 醫療工具快速擴張的背景下,使評估與問責的壓力更集中落在產業與醫院端。

隨機試驗顯示,AI 輔助醫師的決策優於僅使用傳統工具的醫師;但同時也有研究指出,即使錯誤顯而易見,部分臨床醫師仍會採納 AI 的錯誤建議,長期使用更可能使醫師警覺性下降。

NOHARM 研究的結論是,醫療 AI 已逐漸具備臨床決策支援的能力,但距離可以放心部署,仍需嚴格的評估框架與持續的監管機制。研究團隊也建立了公開的 NOHARM 排行榜,持續接受新模型提交,讓評估基礎設施能與 AI 的發展速度同步更新。

【推薦閱讀】

◆ 重寫 AI 醫療責任,為何美國猶他州敢讓 AI 接手「慢性病續方」?
◆ AI 醫療的戰場正在轉移,變革不在醫院而在日常生活中
◆ 體內住著一位 24 小時醫生?從智慧手環到數位藥丸,IoB 如何顛覆醫療模式

*本文開放合作夥伴轉載,參考資料:《Forbes》Stanford Medicine,圖片來源:Unsplash

(責任編輯:鄒家彥)

昨天 — 2026年3月31日首页

高齡者成詐騙首要目標,美國退休金融機構如何利用 AI 保護老年人

作者 LC
2026年3月31日 09:41
高齡者成詐騙首要目標,美國退休金融機構如何利用 AI 保護老年人

根據美國退休金融機構 TIAA 報告指出,到 2030 年代,65 歲以上的老年人口將首次超過 18 歲以下的年輕人口。這場大規模的人口轉型,不僅是社會福利體系的挑戰,也對金融機構提出了新的課題。

當越來越多的客戶進入大腦認知衰退風險的年紀,如何確保他們的財富不因判斷力下降而受損?而 TIAA,也試圖用 AI 回答這個問題。

高齡化浪潮下的財務脆弱性

老年期的財務管理,從來就不是一件輕鬆的事。退休後收入來源單一、醫療支出攀升,加上大腦認知功能逐漸衰退,都使得他們在面對複雜金融決策時更加力不從心。

發表於《JAMA 神經學》的大規模研究顯示,2016 年美國 65 歲以上人口中,約 10% 已達失智症診斷標準,另有約 22% 處於輕度認知障礙狀態,意味著超過三分之一的老年人,正面臨不同程度的認知挑戰。

值得注意的是,每增加五歲,失智風險便上升近一倍,而教育程度較低、非裔與西裔長者的風險更顯著偏高。這也使得老年人成為金融詐騙最主要的目標族群。

TIAA 的調查報告指出,2022 年 60 歲以上的美國人,就向聯邦貿易委員會申報詐騙財務損失高達約 16 億美元;80 歲以上長者的損失中位數達 1,450 美元,遠高於 20 至 59 歲族群的 500 美元以下。

詐騙案件從 2019 年至 2023 年逐年攀升,而許多案件根本從未被舉報,實際損失遠超過統計數字所呈現的規模。

AI 能否作為攔截詐騙的第一道防線?

面對高齡客群的弱點,TIAA 選擇將 AI 部署為監控機制。TIAA 的營運長 Sastry Durvasula 舉例,一位退休客戶接到假冒微軟技術支援的電話,對方以帳戶遭駭為由,說服客戶將退休金全數提領轉移。這類社交工程詐騙手法精密,受害者往往在意識到異常之前,資金已經轉出。

而 AI 在這個環節的核心能力,在於「模式辨識」。系統能持續分析客戶的交易行為、通話內容與歷史資料,一旦偵測到異常訊號,便立即向客服人員發出警示。客服人員接獲警示後,可以即時介入通話、聯繫詐騙防護部門,甚至主動撥打給客戶事先指定的受信任聯絡人,形成多層次的保護機制。

Durvasula 坦言,如果沒有 AI 協助,客服人員在手動評估風險的過程中,往往需要讓客戶長時間等候,而這段空窗期足以讓詐騙者完成資金轉移。AI 的介入大幅壓縮了反應時間,使詐騙攔截的效率與成功率都顯著提升。

兩難:如何用 AI 輔助客服找回同理心?

而詐騙防護只是 AI 應用的其中一面。對 TIAA 而言,另一個同樣重要的挑戰是,如何在服務數百萬名客戶的同時,維持有溫度的互動品質。

大型金融機構的客服體系,長期面臨一個結構性矛盾:業務量龐大要求效率,但每一位客戶,尤其是老年客戶,背後都有各自的生命處境與情感需求。在高壓的服務環境下,同理心往往成為效率的犧牲品。

TIAA 為此開發了一套 AI 同理心輔助系統,在客服人員與客戶互動時,即時提供背景資訊與溝通建議,提示服務人員注意特定客戶的狀況,並推薦更貼近個別情境的溝通方式。

這套系統並非要取代人類的判斷,而是扮演一個即時提醒的角色,幫助客服人員在繁忙的業務流程中,不遺漏對人的關照。

金融科技在高齡社會中的一種新可能

金融服務是高度受監管的行業,AI 的導入必須在嚴格的合規框架下進行。TIAA 將 AI 的自主程度區分為四個層次:輔助(Assisted)、增強(Augmented)、自適應(Adaptive)與自主(Autonomous),並依照不同使用情境,審慎評估每個應用應停留在哪個階段。

目前 TIAA 的 AI 應用尚未進入完全自主的層次,每一個 AI 代理人都需接受人工審核,最終決策權仍保留在人類手中。Durvasula 將此描述為「混合勞動力」,意即 AI 員工與人類員工共同構成服務體系,而 AI 的績效評估,同樣由人類主管負責。

這種分階段、人機協作的治理架構,並非僅是技術層面的謹慎,更是對倫理責任的明確表態。在財務決策攸關退休生計的場域,任何失誤都可能對弱勢族群造成難以逆轉的傷害。

TIAA 的策略顯示,在高風險、高監管的環境中,AI 治理的核心不在於追求最大自動化,而在於建立可課責、可審核、可介入的人機協作機制。

隨著全球高齡化趨勢持續加速,失智與輕度認知障礙人口的規模只會繼續擴大。這意味著詐騙防護、財務監管與智能輔助決策,將成為金融機構 AI 佈局中愈發關鍵的應用場景。

如何在技術能力與倫理責任之間找到平衡,確保 AI 系統能夠真正服務最脆弱的群體,而非加深不平等,將是整個行業在未來必須持續面對的核心課題。

【推薦閱讀】

◆ AI 成為「無意的詐騙放大器」:為何你該懷疑聊天機器人給出的每一組客服電話?
◆ 【魚叉式網路釣魚】看準新人求表現,詐騙者用 AI 偽裝上司騙買蘋果點數卡
◆ 【辦公室詐騙風暴】報帳也能深偽?企業需建立 AI 對 AI 治理戰線

*本文開放合作夥伴轉載,參考資料:《JAMA》《Forbes》,圖片來源:Unsplash

(責任編輯:鄒家彥)

❌
❌