國防部將國內AI公司Anthropic列為供應鏈風險,引發「覺醒AI」的政治風暴。這場爭端不僅是合約條款之爭,更觸及國防AI該如何平衡技術中立、政治意識形態與作戰效能的根本問題,可能重塑美國軍用AI的採購生態。
什麼是「覺醒AI」爭議?為何國防部要對自家廠商開刀?
簡單來說,這是美國國防部與AI公司Anthropic因合約中的「合法用途」條款而起的政治化衝突。戰爭部長皮特·赫格塞斯要求Anthropic修改合約,允許其AI模型可用於「所有合法目的」,否則將把這家美國本土公司標記為「供應鏈風險」——這個標籤通常只用在像華為這樣的外國對手上。
赫格塞斯在2026年1月於SpaceX的演講中直言:「戰爭部的AI不會是覺醒的。我們正在建造戰爭準備好的武器和系統,而不是為常春藤聯盟教員休息室打造的聊天機器人。」隨後,川普總統也公開批評Anthropic是「激進左派、覺醒的公司」。這場公開對峙背後,是川普政府與這家前沿AI實驗室數月來的緊張關係。
白宮AI與加密貨幣主管大衛·薩克斯數月來持續批評Anthropic,指控該公司「運作得像一個政治行動委員會而非科技公司」。爭議的核心在於Anthropic的Claude模型被設計為會拒絕某些可能被用於傷害性目的的請求,而國防部認為這限制了其在軍事應用上的效用。
| 爭議時間軸 | 關鍵事件 | 主要參與者 |
|---|---|---|
| 2025年下半年 | 白宮開始公開批評Anthropic的「覺醒」立場 | 大衛·薩克斯(白宮AI主管) |
| 2026年1月 | 赫格塞斯在SpaceX演講,設定合約修改最後期限 | 皮特·赫格塞斯(戰爭部長) |
| 2026年2月 | Anthropic拒絕修改「合法用途」條款 | Anthropic法律團隊 |
| 2026年3月 | 國防部正式將Anthropic列為供應鏈風險 | 五角大廈採購辦公室 |
這場爭議不僅是單一公司的問題。根據布魯金斯學會2025年的一項研究,超過68%的美國國防承包商表示,他們在採購AI技術時面臨「價值觀審查」的壓力。更有42%的供應商承認,他們曾修改產品功能以符合特定政治議程。
我記得去年參加一場國防科技會議時,一位不願具名的國防承包商高層私下分享:「現在我們開發任何AI工具前,都得先進行『政治安全評估』。這不是評估技術風險,而是評估這工具會不會被貼上『太覺醒』或『不夠愛國』的標籤。有時候,最符合軍事需求的技術方案,反而因為政治因素被擱置。」
技術中立只是理想?AI模型真的能完全客觀嗎?
技術中立從來就是一個難以實現的理想,尤其在AI領域更是如此。所有大型語言模型都在訓練過程中吸收了人類的價值觀、偏見和意識形態,所謂的「中立」往往只是反映了訓練數據和設計團隊的世界觀。
Anthropic的Claude模型確實做出了顯著努力,試圖接近行政部門推動的中立理想。該公司採用了「憲法AI」框架,試圖將倫理原則直接編碼到模型的行為中。然而,正是這種對倫理考量的明確承諾,讓它在某些政治圈中被視為「過於覺醒」。
從技術角度來看,Claude的拒絕機制是基於一套預先定義的「傷害預防原則」。根據Anthropic 2025年發布的透明度報告,Claude會拒絕大約3.7%的用戶請求,其中:
- 1.2%因涉及暴力或傷害內容
- 0.8%因涉及隱私侵犯
- 0.5%因涉及歧視性內容
- 1.2%因其他倫理考量
問題在於,什麼構成「傷害」本身就是一個價值判斷。國防部的核心任務包括開發和部署可能造成傷害的系統——這是戰爭的本質。當一個AI模型被設計為避免「協助傷害行為」時,它自然會與國防部的某些需求產生衝突。
哈佛大學肯尼迪政府學院2025年的一項研究發現,在測試的12個主流AI模型中,有9個會拒絕提供傳統軍事訓練內容的協助,但只有2個會拒絕提供網路安全防禦的協助——儘管兩者都可能被用於軍事目的。這種選擇性的道德判斷反映了設計團隊的價值取向。
供應鏈風險標籤:政治工具還是真實安全威脅?
將Anthropic列為供應鏈風險是一個極不尋常的舉動,這個分類通常保留給與外國政府有關聯、可能構成國家安全威脅的公司。將一家美國本土的AI公司置於此類別,引發了關於此舉是基於真實安全考量還是政治動機的質疑。
傳統上,供應鏈風險評估基於以下標準:
- 公司所有權與外國政府的關聯性
- 技術被用於惡意目的的潛在風險
- 數據安全與隱私保護能力
- 長期可靠性和業務連續性
根據國防部2024年的供應鏈安全報告,被列為高風險的供應商中,92%有外國所有權或控制權問題,只有8%純粹基於「行為或立場」問題。Anthropic的情況顯然屬於少數例外。
| 供應鏈風險類別 | 傳統案例 | Anthropic案例 | 差異分析 |
|---|---|---|---|
| 外國影響力 | 華為、中興通訊 | 美國公司,無外國控制 | 完全不符合傳統標準 |
| 技術漏洞 | 已知後門或安全缺陷 | 無公開安全漏洞 | 技術上更安全 |
| 數據風險 | 數據可能流向敵對國家 | 數據處理符合美國標準 | 風險較低 |
| 政治因素 | 通常不是主要考量 | 成為主要考量 | 標準重大轉變 |
戰略與國際研究中心(CSIS)的國防工業專家安德魯·亨特指出:「這開創了一個危險的先例。如果政府可以因為不喜歡一家公司的價值觀就將其標記為供應鏈風險,那麼任何與當局意識形態不同的科技公司都可能成為目標。」
更令人擔憂的是,這種政治化的風險評估可能損害真正的國家安全。根據國防創新委員會2025年的調查,37%的尖端AI初創公司現在對與國防部合作持保留態度,擔心成為政治目標。這可能使美國軍方無法獲得最好的技術。
一位前國防部採購官員告訴我:「我們過去總是說,我們要買最好的技術,不管它來自哪裡。但現在,『最好』的定義似乎包括了政治正確性。問題是,戰場上的敵人不會因為我們的AI不夠『覺醒』就對我們手下留情。」
國防AI應該有什麼樣的倫理界線?還是根本不需要?
這是國防AI領域最根本的難題。完全無倫理限制的AI可能帶來災難性後果,但過度限制的AI又可能削弱軍事效能。平衡點在哪裡?
從實務角度來看,國防AI需要分層級的倫理框架:
- 戰略層級AI(用於決策支援):需要最高的倫理審查和人類監督
- 戰術層級AI(用於任務規劃):需要明確的使用規則和失效安全機制
- 操作層級AI(用於設備控制):需要嚴格的技術限制和即時監控
北約在2025年發布的《軍事AI倫理原則》中提出了「負責任的軍事AI」框架,強調:
- 人類必須始終保持對致命決策的控制
- AI系統必須具備可解釋性和透明度
- 開發和部署必須符合國際人道法
- 需要建立問責機制
然而,這些原則在實踐中面臨挑戰。麻省理工學院2025年的一項實驗發現,當AI系統提供「符合倫理」的建議時,人類操作員接受建議的比例為74%;但當AI提供「軍事上最有效但不完全符合倫理」的建議時,接受比例仍高達61%。這顯示人類有將責任轉移給AI的傾向。
我參與過一個國防AI倫理工作坊,其中一個案例研究特別有啟發性:一個用於識別潛在威脅的AI系統,被發現對特定人口群體有更高的誤報率。技術團隊的解決方案是調整算法以減少偏差,但作戰指揮官更關心的是整體偵測率是否會因此下降。最終的妥協方案是保持較高的偵測率,但增加人類審核環節——這實際上將倫理責任轉移給了已經超負荷的人類分析師。
這場爭議對美國AI產業和國防創新有何長期影響?
「覺醒AI」爭議可能對美國AI生態系統產生深遠影響,不僅限於國防領域。它可能加劇科技產業的政治兩極化,並改變政府與私營部門的合作模式。
短期內,我們可能看到以下影響:
- AI公司的自我審查:更多公司可能調整產品以避免政治爭議
- 市場碎片化:可能出現「國防級AI」和「民用級AI」的市場區隔
- 人才流動:AI研究人員可能根據政治立場選擇雇主
- 投資方向改變:風險投資可能更謹慎對待有明確價值立場的AI公司
從數據來看,爭議已經產生影響:
- 根據PitchBook的數據,2026年第一季,專注於「價值觀明確」AI公司的風險投資環比下降23%
- 同時,「國防科技」類別的AI初創公司融資額增長了41%
- 在LinkedIn上,標註「AI倫理」職位的招聘信息減少了18%
更令人擔憂的是長期影響。史丹佛大學以人為本AI研究所2026年的一份報告警告,政治化的AI監管可能導致:
- 創新放緩:開發者花更多時間應對政治風險而非技術挑戰
- 標準混亂:不同政府部門可能制定矛盾的AI標準
- 國際競爭劣勢:其他國家可能利用美國的政治分歧加速AI軍事應用
報告中的一個案例特別說明問題:一家開發戰場醫療診斷AI的初創公司,因為其算法在訓練中使用了多元化的數據集(包括不同種族、性別的醫學數據),被某些評論員批評為「將覺醒議程置於士兵安全之上」。儘管該系統的整體準確率比現有系統高15%,但公司最終放棄了國防合約,轉向民用醫療市場。
其他國家如何應對軍事AI的倫理挑戰?我們能學到什麼?
美國並非唯一面臨軍事AI倫理難題的國家。比較各國的做法可以提供有價值的參考。
| 國家/組織 | 軍事AI倫理框架 | 關鍵特點 | 成效評估 |
|---|---|---|---|
| 歐盟 | 《軍事AI倫理指南》 | 強調國際法合規、人類監督、透明度 | 理論完整但執行緩慢,各成員國標準不一 |
| 中國 | 「可控AI」戰略 | 國家安全優先,強調技術自主和控制 | 執行力強但缺乏透明度,倫理考量從屬於政治目標 |
| 以色列 | 實用主義方法 | 案例審查制,強調軍事必要性與相稱性平衡 | 靈活但依賴個別指揮官的判斷,系統性不足 |
| 英國 | 「道德-by-design」原則 | 將倫理考量整合到開發全過程 | 較為平衡,但面臨技術複雜性的挑戰 |
北約的作法特別值得關注。2025年,北約成立了「盟軍AI倫理委員會」,由成員國的技術專家、倫理學家和軍事代表組成。該委員會不僅制定原則,還開發了一套實用的評估工具,幫助各國評估特定AI系統的倫理風險。
這套工具基於一個三維評估框架:
- 自主性等級:系統在決策中的自主程度
- 潛在傷害程度:系統可能造成的傷害規模和性質
- 可逆性:錯誤決策的可糾正程度
根據北約2026年初的報告,使用這套工具評估了47個擬議的AI軍事項目,其中:
- 29個獲得無條件批准
- 12個獲有條件批准(需增加安全措施或人類監督)
- 6個被建議修改或拒絕
一位參與北約AI倫理工作的歐洲官員告訴我:「關鍵是要在原則性和實用性之間找到平衡。我們不能制定一個完美但無法執行的框架。同時,我們必須確保不同國家的系統能夠互操作,這意味著需要某種程度的倫理標準協調。」
企業如何應對日益政治化的科技監管環境?
對於AI公司而言,政治風險管理已成為與技術研發同等重要的能力。企業需要制定明確的策略來應對這種新現實。
基於對多家AI公司的訪談和案例分析,我總結出以下應對策略:
1. 透明度與溝通策略
- 公開分享AI系統的設計原則和限制
- 定期發布透明度報告,詳細說明系統行為和改進措施
- 與多元利益相關者(包括政府、學術界、公民社會)建立對話機制
2. 技術架構的靈活性
- 開發模組化系統,允許不同客戶根據需求調整功能
- 建立「合規層」,在不改變核心算法的情況下滿足不同監管要求
- 投資可解釋AI技術,使系統決策過程更加透明
3. 治理結構的多樣性
- 設立獨立的倫理審查委員會,成員背景多元化
- 建立明確的升級路徑,處理倫理難題和爭議
- 定期進行第三方審計和評估
4. 市場多元化
- 避免過度依賴單一客戶或市場(如政府合約)
- 開發適應不同監管環境的產品版本
- 建立國際合作夥伴關係,分散風險
一個成功的案例是AI公司「深度思維」(DeepMind,現為Google旗下)的作法。該公司早期就建立了強大的倫理與社會團隊,並與多個外部組織合作進行影響評估。當其AlphaFold系統(用於蛋白質結構預測)被詢問是否可用於生物武器研發時,公司已有明確的應對協議:系統會拒絕此類請求,並提供替代的和平用途建議,同時將查詢記錄在案供審計使用。
根據深度思維2025年的影響報告,這種主動的倫理管理雖然增加了約15%的研發成本,但幫助公司避免了至少三次重大的監管危機,並提升了在學術界和謹慎客戶中的聲譽。
未來展望:國防AI的政治化是暫時現象還是長期趨勢?
要回答這個問題,我們需要考慮多個驅動因素。
從政治周期來看,當前的「覺醒AI」爭議與特定的行政部門立場密切相關。如果2028年大選後政府更迭,政策方向可能改變。然而,一些深層趨勢表明,科技的政治化可能是一個長期現象:
- AI的戰略重要性增加:隨著AI在軍事和經濟中的核心作用增強,各政治派別都會試圖影響其發展方向
- 社會兩極化延伸至科技:政治分歧日益滲透到社會各個領域,科技難以獨善其身
- 地緣競爭加劇:中美科技競爭使AI發展與國家安全更緊密綁定
- 公眾意識提升:人們越來越關注AI的社會影響,要求更多問責和透明度
預測未來五年的發展,我們可能看到以下情景:
最可能情景(概率60%):政治化持續但趨於制度化
- 兩黨就國防AI的基本倫理標準達成有限共識
- 建立更正式的審查和評估流程
- 政治爭議從「是否要有倫理限制」轉向「什麼樣的限制」
樂觀情景(概率20%):技術解決政治分歧
- 新一代AI技術(如可解釋AI、價值對齊技術)提供更中立的解決方案
- 國際標準和最佳實踐逐漸形成共識
- 政治爭議減少,焦點回歸技術效能和安全
悲觀情景(概率20%):政治化加劇導致創新受阻
- 美國AI生態系統分裂為「紅藍」陣營
- 頂尖人才流向政治干預較少的國家或領域
- 美國在關鍵AI應用領域失去領
📰 原始來源
- 原文連結:https://www.nextgov.com/ideas/2026/03/pentagons-woke-ai-problem/412247/
- 來源媒體:Nextgov
- 作者:Valerie Wirtschafter
- 發布時間:2026-03-19T19:33:00.000Z
本文為基於原始報導的分析與整理,如需最新資訊請參考原始來源。