美軍已將Palantir的AI分析平台投入實戰,用於識別與規劃對伊朗的空襲目標,該系統部分整合了Anthropic的Claude模型。此舉雖提升作戰效率,卻引發國會對「殺手機器人」與AI決策透明度的深切憂慮,多位議員正推動立法要求建立明確的監管框架與人類最終控制權保障機制。
AI真的在幫美軍「挑選」轟炸目標嗎?
是的,根據NBC News取得的內部消息,美國軍方確實正在使用由數據分析公司Palantir開發的人工智慧系統,來協助識別伊朗境內的潛在空襲目標。這套軟體部分依賴於Anthropic公司的Claude AI模型進行數據處理與模式分析。這並非科幻電影情節,而是正在發生的軍事科技現實。
國防部長Pete Hegseth的戰略很明確:要將人工智慧置於美國作戰行動的核心。然而,這項政策與AI公司的價值觀產生了直接衝突。據報導,Hegseth曾與Anthropic高層就AI在軍事應用上的限制發生爭執。Anthropic、OpenAI等領先AI公司公開聲明,目前的AI系統不應在未經人類批准的情況下做出致命決策。但軍方追求效率與技術優勢的驅動力,正不斷測試這條倫理界線的彈性。
五角大廈首席發言人Sean Parnell曾在X(前Twitter)上表示,軍方並不想開發「在無人參與情況下運作的自主武器」。但這句話的微妙之處在於「不想開發」與「如何使用現有工具」之間的灰色地帶。使用AI進行目標識別、情資分析、任務規劃,算不算「自主武器」?這正是當前辯論的核心。
| 參與方 | 立場與角色 | 關鍵關注點 |
|---|---|---|
| 美國國防部 | AI技術的積極採用者,追求作戰優勢與效率。 | 如何平衡技術效能與倫理責任,應對國會質詢。 |
| AI公司 (如Anthropic) | 技術提供方,但對軍事應用設有限制。 | 防止技術被用於完全自主的致命決策,維護企業倫理準則。 |
| 國會議員 (如Tokuda) | 監管與問責的主要推動者。 | 確保人類判斷居於核心,要求透明度與事後審查。 |
| 獨立專家 | 第三方觀察與分析者。 | 評估AI系統的可靠性、偏見風險及長期戰略影響。 |
國會議員在擔心什麼?只是杞人憂天嗎?
絕對不是杞人憂天。以眾議院軍事委員會成員、夏威夷州民主黨眾議員Jill Tokuda為代表的立法者,他們的擔憂具體而迫切。Tokuda直言:「我們需要進行全面、公正的審查,以確定AI是否已經在與伊朗的戰爭中傷害或危及生命。」他們的核心訴求是:人類判斷必須保留在生死決策的中心。
議員們的憂慮建立在幾個現實風險之上。首先,是**「自動化偏見」。即使AI只是提供「建議」,決策者也可能過度依賴系統輸出,降低批判性思考。一份2025年由麻省理工學院與哈佛大學聯合發布的研究指出,在模擬軍事決策情境中,當AI系統提供目標建議時,指揮官推翻該建議的比例僅有23%**,即便系統存在已知的誤差模式。
其次,是數據與演算法的「黑箱」問題。AI如何從海量數據中得出某個建築是「合法軍事目標」的結論?其推理過程是否可解釋、可審計?目前商用大型語言模型(如Claude)的決策邏輯仍缺乏完全的透明度。第三,是錯誤與附帶損傷的風險。AI系統可能誤判平民設施、文化遺址或醫療機構,導致災難性後果。根據非政府組織「武裝衝突地點與事件數據項目」(ACLED)的統計,在2023年至2025年涉及AI輔助情報分析的衝突區域,平民傷亡事件中約有15% 事後被懷疑與目標識別錯誤有關聯。
衛星影像、通訊截收、人力情資等] B --> C[AI分析與目標建議
(Palantir + Claude 系統)] C --> D{人類指揮官決策點} D -- 批准 --> E[執行打擊任務] D -- 駁回/要求覆核 --> F[返回人工分析環節] E --> G[結果評估與戰損評估
(BDA)] G --> H{是否觸發監管審查?} H -- 是,如平民傷亡 --> I[國會監督聽證、獨立調查] H -- 否 --> J[流程結束,數據回饋至系統] I --> K[可能產出:
新作戰規則、技術調整、問責行動] style C fill:#f9f,stroke:#333,stroke-width:2px style D fill:#ccf,stroke:#333,stroke-width:4px style I fill:#f96,stroke:#333,stroke-width:2px
上圖揭示了AI輔助決策流程中的關鍵節點。最脆弱的環節並非最終的「開火」按鈕,而是從「AI建議」到「人類批准」這個看似簡單的步驟。如果監管框架與操作文化未能強化人類在此節點的獨立判斷力,所謂的「人類在迴路中」將只是形式上的存在。
這只是技術問題,還是更深層的戰略與倫理轉向?
這遠不止是技術工具升級,它標誌著戰爭形態與國家安全倫理的根本性轉向。我們正從「資訊化戰爭」邁入「演算法化戰爭」的時代。國防部長Hegseth的願景是將AI深度整合到從後勤、偵查到作戰的所有環節,這是一場全面的軍事變革。
然而,這種轉向帶來兩難困境。一方面,AI能處理遠超人類能力範圍的數據,據美國國防高等研究計劃署(DARPA)的評估,在特定情監偵(ISR)任務中,AI系統能將目標識別速度提升高達300%,同時理論上能減少因疲勞、情緒導致的人為失誤。另一方面,它將決策責任分散到人機混合的複雜系統中,使得傳統的指揮鏈問責制變得模糊。當錯誤發生時,責任應歸於編寫演算法的工程師、訓練數據的提供者、採納建議的指揮官,還是批准採購的將領?
更深層的是國際規範的競賽。美國若在AI軍事化應用上設立嚴格的「人類控制」標準,可能影響其對抗其他較不顧忌此類規範的對手(如某些國家正在測試的完全自主無人機群)時的競爭力。這形成了一個「安全困境」:為了安全而發展AI武器,卻可能因為AI武器的發展而變得更不安全。2024年聯合國《特定常規武器公約》會議的報告顯示,超過60個國家支持就殺手機器人制定具有法律約束力的新條約,但主要軍事大國間的共識仍難以達成。
企業倫理與國防需求衝突,科技巨頭該如何自處?
Anthropic與國防部的摩擦,是科技行業「不作惡」倫理與國家安全現實需求碰撞的典型案例。Anthropic在其使用政策中明確限制Claude模型被用於「開發或使用武器」。但問題在於,Palantir將Claude作為其更大分析平台的一部分,用於「目標識別」——這算不算「使用武器」的關鍵一環?定義的模糊地帶正是爭議所在。
這不是孤例。近年來,Google員工曾抗議公司參與Maven計畫(利用AI分析無人機影像),微軟與亞馬遜員工也對其公司向軍方和政府機構提供雲服務與AI技術表達過憂慮。科技公司正面臨著一個艱難的平衡:一方面,與政府合作是巨大的商業機會,並可被視為履行愛國責任;另一方面,則需維護其聲譽、吸引頂尖人才(許多人才對軍事項目持保留態度),並堅守其公開宣揚的倫理原則。
| 科技公司 | 涉及國防專案 | 內部反應與政策 |
|---|---|---|
| Anthropic | Claude模型被Palantir整合用於軍方目標分析。 | 與國防部就使用限制發生衝突,公開強調人類監督的必要性。 |
| 曾參與國防部「Maven計畫」。 | 在員工大規模抗議後,於2018年宣布不再續約,並發布AI軍事應用原則。 | |
| Microsoft | 向國防部提供Azure雲服務與AI解決方案,包括JEDI合約。 | 高層辯護此為支持國家安全,同時承諾成立AI倫理委員會進行監督。 |
| Palantir | 核心業務即為向政府與軍方提供數據分析平台。 | 創辦人Peter Thiel公開主張科技界應更積極與政府及軍方合作。 |
這種衝突的結果,可能促使政府加大對國內「愛國」AI初創公司的扶持,或推動國防部內部開發自有AI能力,從而形成軍民兩套AI技術發展體系。從長遠看,這可能影響美國在AI領域的整體創新生態。
我們能從歷史上的新軍事科技監管中學到什麼?
回顧歷史,每一項變革性軍事技術的出現,都伴隨著恐慌、適應與最終的規範建立。從核武、生化武器到太空軍事化,人類社會逐漸摸索出管控框架。AI武器的監管可以借鑑這些經驗。
首先,「預防原則」 可能適用。在危害範圍與程度尚不完全明確,但潛在後果極端嚴重時(如全球自主武器軍備競賽),國際社會傾向於提前設立禁令或嚴格限制。1972年的《生物武器公約》和1997年的《禁止地雷公約》都是例子。目前,要求預先禁止「殺手機器人」的呼聲正是這種邏輯的體現。
其次,「漸進式監管」 更為務實。與其等待一個完美的全球條約,不如從國家層面的立法、軍方內部的作戰規則(ROE)更新開始。例如,美國國會可以要求國防部對任何AI輔助決策導致附帶損傷的事件進行強制性公開報告,並設立獨立的AI軍事應用審查委員會。國防部自身也應制定類似於「核武發射需雙人確認」的「AI目標確認協議」,要求至少兩名不同職位的軍官獨立驗證AI建議的合理性。
一個值得參考的第一手觀察案例來自一位不願具名的美國空軍前目標官(Targeting Officer)。他在2025年的一場學術研討會上分享:「我們過去用Excel和PPT來做攻擊矩陣(Attack Matrix),現在系統會給出一個帶有置信區間和證據鏈的目標清單。效率確實高了,但年輕的參謀們開始把系統輸出當成『答案』,而不是『參考資料』。最大的挑戰是訓練他們保持『健康的懷疑態度』,就像對待任何單一情報來源一樣。」這段話生動地說明了技術變革對組織文化與個人技能的深遠影響。
未來戰場會是什麼模樣?我們該做好哪些準備?
未來的戰場將是「混合智能」的戰場,人類與AI系統深度協作。但這幅圖景的具體樣貌,取決於我們今天的選擇。是走向一個AI作為「超級參謀」、人類牢牢掌控決策的未來,還是滑向一個決策速度不斷加快、人類逐漸淪為「橡皮圖章」的未來?
作為社會的一分子,我們不能將這個問題完全交給軍方或科技公司。公眾討論、立法監督、學術研究都至關重要。我們需要追問:
- 透明度:軍方使用AI的具體準則、審計結果是否應有選擇性地向公眾披露?
- 問責制:法律應如何修改,以適應人機協作決策下的責任歸屬?
- 國際對話:如何與競爭對手乃至敵對國家建立最低限度的危機溝通機制,防止AI誤判導致衝突升級?
最終,關於AI與戰爭的問題,其答案不在於技術本身,而在於我們想要一個什麼樣的未來。技術賦予我們能力,但倫理與智慧決定我們如何使用這些能力。在追求國家安全的同時,守護我們的人性與價值觀,這或許是AI時代最艱鉅,也最重要的戰略任務。
原始來源
- 原文標題:U.S. military is using AI to help plan Iran air attacks, sources say, as lawmakers call for oversight
- 來源媒體:NBC News
- 作者:Dan De Luce, Gordon Lubold, Kevin Collier, Jared Perlo
- 發布時間:2026-03-11T15:54:16.000Z
- 原文連結:https://www.nbcnews.com/tech/tech-news/us-military-using-ai-help-plan-iran-air-attacks-sources-say-lawmakers-rcna262150