奧特曼罕見發文認錯:OpenAI 如何在軍方大單與公眾信任間走鋼索?

美國國防部與 AI 公司 Anthropic 的合作談判正式破裂後,風波並未平息。OpenAI 隨即介入接手相關合作,但在外界質疑聲浪中,該公司與五角大廈的協議也迅速面臨合法性與公民自由保障的壓力。外界強烈質疑 OpenAI 妥協於軍方的「任何合法用途」條款,若不能妥善解決 AI 被用於大規模國內監控的擔憂,這份協議的前景也岌岌可危。
《AXIOS》報導,OpenAI 正與美國國防部修改 AI 合約內容,新增更明確的條款,以防止其系統被用於對美國人民進行大規模國內監控。OpenAI 執行長奧特曼更罕見在社群平台 X 上發文承認,先前過於倉促推動交易,是一次錯誤判斷。
Anthropic 與五角大廈決裂,OpenAI 火速補位
這場爭議的起點,是五角大廈要求 AI 公司同意允許其技術用於所有合法用途。Anthropic 認為 AI 技術目前尚未發展成熟,因此拒絕簽署未明確排除「大規模國內監控」與「完全自主致命武器」的合約條款,雙方談判破裂。
根據《華爾街日報》報導,美國國防部長 Pete Hegseth 與 Anthropic 執行長 Dario Amodei 在 2 月 24 日的會面中出現明顯裂痕。Hegseth 明確表示,任何私人企業都無權限制軍方使用技術的方式。隨後,五角大廈威脅將 Anthropic 列為「供應鏈風險」,甚至可能依據《國防生產法》強制干預。
就在僵局升高之際,OpenAI 迅速宣布與國防部達成協議,將其模型部署於機密環境之中。奧特曼也表示,OpenAI 最重要的兩項安全原則是禁止在國內大規模監控,以及人對武力使用負有責任,包括對自主武器系統的使用。但這讓人們開始質疑奧特曼說法:五角大廈先前才明確拒絕私人企業限制其技術用途,為什麼會忽然同意 OpenAI 的紅線呢?
《The Verge》指出,OpenAI 的合約核心仍建立在「符合法律」的前提上。但過去數十年,美國情報機構曾在合法框架下執行大規模監控行動,例如 Edward Snowden 揭露的 PRISM 計畫。法律本身並未明確禁止所有形式的批量資料蒐集。
OpenAI 前政策主管 Miles Brundage 在社群平台上質疑,OpenAI 可能實際上讓步,卻對外包裝成未妥協。加州大學柏克萊分校研究學者 Sarah Shoker 也指出,合約中使用「unconstrained」、「generalized」等修飾語,並非全面禁止,而是保留彈性解釋空間。
此外,批評者指出,即便 OpenAI 部署分類器(classifiers)與安全機制,這些技術工具無法判斷某個單次查詢是否屬於大規模監控行動的一部分。換言之,只要政府認定行為「合法」,技術層面的限制可能難以真正發揮作用。
根據市場研究機構 Sensor Tower 的估計,在 OpenAI 宣布接手合約後的週末,應用程式 ChatGPT 的卸載量大幅增加了近 300%。公眾與內部員工的強烈反彈迫使 OpenAI 必須重新審視合約內容。
新條款明確排除「刻意監控美國人」
《AXIOS》引述知情人士說法報導,OpenAI 主動接觸國防部,提出替代方案。奧特曼與國防部研究與工程副部長 Emil Michael 重新協商條款,希望在維持既有法律框架下,納入安全保障語言。
根據《AXIOS》看到的合約修正內容,新條款明確寫入:AI 系統不得「刻意用於對美國公民或國民進行國內監控」,包括透過購買或使用商業取得的個人資訊。這項修正特別將「商業取得的個人資訊」納入限制範圍。此前,外界擔憂,即便未直接監控私人資料,政府仍可能購買定位資料、瀏覽紀錄或金融資料進行分析。
奧特曼稍早在一則對員工發布的內部貼文中表示:「我認為我做錯的一件事,是不該急著在週五就對外發布這項消息。」他之後也將該貼文分享到 X 平台。他寫道:「這些議題極其複雜,需要清楚的溝通。我們當時的確是想要降溫局勢,避免更糟的結果,但這次的做法看起來反而像是機會主義且處理草率。對我來說,這是一個寶貴的學習經驗,尤其是在未來面對更高風險決策時。」
Here is re-post of an internal post:
— Sam Altman (@sama) March 3, 2026
We have been working with the DoW to make some additions in our agreement to make our principles very clear.
1. We are going to amend our deal to add this language, in addition to everything else:
"• Consistent with applicable laws,…
核心問題浮現:誰決定 AI 的使用邊界?
《華爾街日報》指出,這場衝突不僅是企業與政府的談判問題,更觸及一個根本問題:在 AI 成為國家安全基礎設施的過程中,誰應該決定技術的使用邊界?
Anthropic 主張在合約中明確寫入紅線,即便未來法律或政策變動,也不得跨越。而 OpenAI 則選擇在既有法律框架內行動,並透過技術與合約補充條款加強保障。
而當 AI 公司如今正從消費型新創,轉型為國家安全合作夥伴,《TechCrunch》認為,產業與政府雙方似乎都尚未準備好應對這種新關係。
短期內,OpenAI 可能避免了與政府正面衝突,也獲得了國防部的合作機會。但長期而言,若 AI 技術真的被用於具爭議的監控或軍事行動,公眾信任是否還能維持,仍是一個未解問題。
*本文開放合作夥伴轉載,資料來源:《AXIOS》、Sam Altman、《WSJ》、《Bloomberg》、《The Verge》、《TechCrunch》、《Platformer》,首圖來源:WEF Forum






















