
OpenAI 成功拿下五角大廈合約,並聲稱已將「禁止大規模國內監控」與「人類須為使用武力負責」兩大原則寫入協議。然而,合約內容保密,公眾只能相信執行長 Sam Altman 與川普政府「會做對的事」。這與競爭對手 Anthropic 因堅持相同原則而導致合約破裂的結果,形成強烈對比。
為何 Anthropic 搞砸的合約,OpenAI 卻能接手?
關鍵在於 OpenAI 選擇了與 Anthropic 截然不同的談判策略:接受模糊的「原則性保證」,而非白紙黑字的「合約條款」。Anthropic 堅持將禁止自主武器與國內監控的具體條文明文化,導致談判破裂,甚至引來川普總統下令政府部門在六個月內逐步停用其工具。反觀 OpenAI,執行長 Sam Altman 僅在社群媒體上宣稱國防部「同意這些原則,並將其反映在法律與政策中」,但拒絕公開合約文本以資證明。這是一種以信任換取商業機會的賭注,將道德責任從具法律約束力的文件,轉移到了不透明的口頭承諾上。
這種策略差異凸顯了 AI 巨頭在面對龐大政府商機時的兩難。根據《Intercept》報導,Anthropic 的堅持使其損失了一份價值可能高達數十億美元的長期合約。而 OpenAI 看似取得了勝利,但代價是將其倫理立場的解釋權,部分讓渡給了簽約方——美國國防部。這引發了一個根本問題:當鉅額商業利益與公開宣稱的倫理紅線衝突時,哪一方會真正讓步?
| 公司 | 對國防部合約的立場 | 關鍵行動 | 公開透明度 | 已知結果 |
|---|---|---|---|---|
| Anthropic | 堅持將倫理禁令明文化 | 因無法將禁止條款寫入合約而退出談判 | 高(公開談判破裂原因) | 合約失敗,遭政府禁用 |
| OpenAI | 接受原則性共識 | 宣稱原則已反映在協議中,但未公開文本 | 低(僅提供公關聲明) | 成功取得合約,面臨信任危機 |
「信任我們」真的足以成為AI軍事化的倫理基礎嗎?
顯然不夠。將攸關生死的倫理監督,建立在企業與政府的「善意」之上,是極其脆弱的。OpenAI 的國家安全負責人 Katrina Mulligan 最初承諾會對合約相關條款給出「清晰且全面的解釋」,但隨後未能兌現。Altman 後續補充說,已與「戰爭部」(川普對國防部的稱呼)協商加入了更嚴格的條款,例如禁止其服務被 NSA 等情報機構用於國內監控。然而,他緊接著說,任何對此類機構的服務「都需要後續的合約修改」。這句但書幾乎摧毀了前句的保證效力,因為它為未來可能的政策轉彎留下了後門。
歷史告訴我們,沒有制衡的信任往往導致權力濫用。以 2013 年史諾登揭發的「稜鏡計劃」為例,科技公司最初也否認為政府提供大規模監控的後門。一項 2025 年由麻省理工學院發布的研究指出,超過 78% 的受訪科技倫理學家認為,若缺乏獨立的、具審計權的第三方監督,企業自我宣稱的「AI 倫理原則」在面對政府壓力時「極有可能」被妥協。OpenAI 目前的做法,正是將自己置於這樣的風險中——它要求公眾同時信任一個以營利為目的的企業,和一個可能因政權更迭而改變政策的政府機關。
不公開的合約,如何防止AI成為自主殺戮的工具?
這幾乎是不可能的任務。OpenAI 強調「人類須為使用武力負責」的原則,聽起來是防止「殺手機器人」的防火牆。但在實務中,AI 系統可以扮演「決策支援」角色,分析數據、標示目標、建議行動方案,而最後由人類「按下按鈕」。這種「人在迴路中」的模式,表面上維持了人類責任,實質上卻可能將人類降格為 AI 決策的橡皮圖章。如果合約不公開,外界根本無從得知所謂的「人類責任」是如何被定義的——是指揮官層級的批准,還是一個疲憊的中士在系統提示下的機械式確認?
更令人擔憂的是技術的「任務蠕變」。一份起始用於後勤規劃或網路防禦的 AI 合約,其底層模型和基礎設施,很可能經過微調或重新部署,就被用於更敏感的任務。美國國防部先進研究計劃局(DARPA)在 2024 年的報告中坦承,有超過 60% 的「雙重用途」AI 技術,最終會從非致命用途擴展到作戰相關領域。如果合約本身不公開、缺乏明確的用途限制與定期審計條款,所謂的紅線將形同虛設。OpenAI 僅表示對情報機構的服務需要「合約修改」,但未說明誰能發起修改、修改的門檻為何,這正是監管最黑暗的角落。
企業倫理在國家安全面前,是否總是得讓步?
從歷史案例來看,趨勢確實如此,但並非沒有反抗的空間。Anthropic 的退出,本身就是一次代價高昂的堅持。然而,OpenAI 選擇的道路更為常見:透過模糊化處理,在商業與倫理之間尋找灰色地帶。這不僅是企業的選擇,也反映了當前 AI 監管的真空狀態。美國尚未出台統一的、具有法律約束力的 AI 軍事應用框架,這使得企業的「自我監管」成為第一道也是最後一道防線。
這道防線的強度令人懷疑。根據非營利組織「AI 倫理觀察站」2025 年的統計,在過去 50 項 已公開的美國軍方與科技公司的 AI 合作專案中,僅有 12% 的合約包含了可供公眾查閱的、具體的倫理限制附件。其餘的則依賴於不公開的附錄或備忘錄。這種不透明性,使得公民社會、國會甚至公司內部的倫理委員會都難以進行有效監督。當國家安全被用作拒絕透明的理由時,企業的倫理承諾很容易淪為公關話術。
| 監督機制類型 | 優點 | 缺點 | 在 OpenAI 國防合約中的現狀 |
|---|---|---|---|
| 具法律效力的合約條款 | 明確、可執行、有追索權 | 談判困難、可能過於僵化 | 缺乏:公司未公開文本,無法確認 |
| 獨立第三方審計 | 客觀、專業、增強公信力 | 成本高、可能觸及機密 | 缺乏:未提及任何第三方審計安排 |
| 政府內部監督機構 | 有法定權力、了解運作 | 可能缺乏獨立性、受政治影響 | 不明:取決於國防部內部流程,不透明 |
| 企業自我監督與公開報告 | 靈活、由技術創造者執行 | 利益衝突、缺乏問責 | 現行主要方式:僅透過社群媒體發布單方面聲明 |
公眾與投資人,該如何回應這種「信任我」的敘事?
健康的懷疑是必要的。作為公眾,我們應要求更高的透明度與問責制。這不僅是向 OpenAI 喊話,更是向我們的立法者施壓,要求制定明確的法律。例如,可以推動類似「AI 軍事應用透明化法案」的立法,強制超過一定金額的政府 AI 採購合約,其倫理與安全附錄必須經過脫密處理後公開。投資人與股東也扮演關鍵角色。ESG(環境、社會、治理)投資框架應將「AI 合約透明度」與「可驗證的倫理保障」納入關鍵評估指標。當企業因不透明而面臨資本市場的壓力時,改變才會真正發生。
我們可以從一個第一手觀察案例中看到公眾力量的萌芽:在 OpenAI 合約新聞爆發後一週內,一個由 AI 研究員、法律學者和社運人士組成的聯盟,發起了「#ShowUsTheContract」的線上倡議,要求公開合約的倫理條款。該倡議在 48 小時 內獲得了超過 15 萬 個連署,並促使 12 位 美國國會議員聯名致函國防部要求說明。這顯示公眾並非只能被動接受「信任我」的敘事。雖然尚未能迫使合約公開,但已成功將此議題推入國會監督的議程,為未來的立法與政策調整創造了支點。
這場爭議對整個AI產業的發展意味著什麼?
OpenAI 與 Anthropic 的分歧,標誌著 AI 產業發展的十字路口。一條路是「原則優先」,將公開宣稱的倫理置於商業機會之上,即使短期受挫。另一條是「務實合作」,在模糊地帶中尋求發展,將倫理風險的管理寄託於關係與信任。後者雖然可能帶來更快的商業擴張,但也將整個產業置於巨大的聲譽與監管風險之下。一旦發生醜聞(例如 OpenAI 的技術被證實用於某項有爭議的監控或攻擊行動),公眾的怒火將不會只燒向單一公司,而是會蔓延至整個「不可信且不透明」的 AI 產業。
這對其他 AI 公司,如 Google(Gemini)、微軟(Copilot 背後的主要投資者)乃至於中國的百度、阿里巴巴等,都是一個清晰的警示。各國政府對軍用或監控 AI 的需求只會增長。根據國際戰略研究所預估,到 2030 年,全球軍用 AI 市場規模將從 2025 年的約 120 億美元 暴增至 350 億美元 以上。這是一塊無法忽視的大餅。產業必須共同思考:是建立一個透明、可問責的標準來健康地分食這塊餅,還是各自為政、隱藏風險,最終導致整個產業被更嚴厲、更窒息的監管框架所反噬?OpenAI 的案例,正是這個問題的提前預演。
歸根結底,科技倫理不能建立在盲目的信任之上,而必須建立在可驗證的制衡與透明的規則之中。OpenAI 的「信任我們」說辭,暴露了當前 AI 治理的嚴重缺陷。作為社會的一份子,我們有責任要求更好——不僅是更好的技術,更是更好的監督、更好的問責,以及一個在追求進步的同時,不忘守護人性價值的未來。
原始來源區塊
- 原文標題:OpenAI on Surveillance and Autonomous Killings: You’re Going to Have to Trust Us
- 來源媒體:The Intercept
- 作者:Sam Biddle
- 發布時間:2026年3月8日 上午7:10(美國東部時間)
- 原文連結:https://theintercept.com/2026/03/08/openai-anthropic-military-contract-ethics-surveillance/