
以色列被指控將在加薩衝突中開發並使用的AI目標選定系統,直接套用於對伊朗的軍事行動中。這套被稱為「致命性測試版」的系統,據稱能在20秒內批准攻擊,並內建容許10%錯誤率的機制,引發了關於戰爭自動化、道德責任與國際法規範的嚴峻挑戰。
AI真的能在戰場上決定誰該被攻擊嗎?
是的,而且它正在發生。根據科技記者雅各布·沃德和多位軍事分析師的揭露,以色列國防軍使用的「Habsora」等AI系統,已能自動生成並建議空襲目標,其處理速度遠超傳統人工分析。這並非科幻情節,而是當前伊朗與加薩衝突中的作戰現實。系統透過演算法分析大量數據(如通訊攔截、衛星影像、社交媒體活動),快速識別並優先排序潛在攻擊目標,將決策循環從數小時壓縮至短短數分鐘甚至秒級。
這種「演算法戰爭」的核心問題在於責任歸屬。當AI系統建議攻擊一個目標,而該目標事後被證明是平民設施(如報導中提到的德黑蘭「警察公園」),誰該負責?是編寫演算法的工程師、批准使用系統的指揮官,還是按下最終按鈕的操作員?目前的國際人道法,如《日內瓦公約》及其附加議定書,要求攻擊必須區分戰鬥員與平民,且比例原則必須被遵守(即預期的軍事利益必須大於可能造成的附帶平民傷害)。AI系統在執行這些複雜的法律與道德判斷時,存在根本性的缺陷。
更令人擔憂的是,有以色列情報來源將此技術描述為「大規模刺殺工廠」,強調的是「擊殺數量而非質量」。這種思維轉變,從精準打擊轉向飽和攻擊,正是AI高速處理能力帶來的危險誘惑。當系統可以每20秒產出一個「批准」目標時,指揮官面臨的壓力從「是否應該攻擊」變成了「為何不攻擊」。
| AI軍事系統名稱 | 主要功能 | 被指控的使用場景 | 爭議核心 |
|---|---|---|---|
| Habsora (以色列) | 自動選定空襲目標,加速決策循環 | 加薩地帶、伊朗境內攻擊 | 錯誤率容忍、缺乏有效人工監督 |
| Maven Smart System (美國Palantir) | 整合Claude AI,協助目標分析與排序 | 美軍在伊朗衝突初期目標選定 | 軍方對商用AI的依賴、黑箱作業 |
| 「致命性測試版」概念 | 將真實戰場作為新武器系統的測試場 | 從加薩(原型)到伊朗(正式部署) | 道德風險、將平民區視為實驗室 |
「10%的錯誤率」在戰爭中意味著什麼?
這意味著系統性的附帶損害被預先「批准」了。接受10%的錯誤率,並非指技術故障,而是在演算法設計和作戰規則層面,默認了一定比例的目標識別錯誤是「可接受的成本」。在人口稠密的都市環境中,這樣的錯誤率轉化為平民傷亡的數字是驚人的。
讓我們用數據來理解:假設在某一波次行動中,AI系統標定了100個攻擊目標。根據10%的錯誤率,其中可能有多達10個目標是錯誤識別——它們可能是學校、醫院、住宅,或是像報導中那樣,只是一個名稱帶有「警察」字樣的公園。2023年10月對加薩賈巴利亞難民營的一次AI輔助空襲,旨在攻擊一名哈馬斯指揮官,最終卻導致至少126人死亡,其中包括68名兒童,另有280人受傷。這單一事件就遠遠超出了任何合理的比例原則。
更關鍵的是,這種「容錯率」可能與具體的作戰規則相結合。根據《紐約時報》之前的調查,在加薩行動初期,以軍中級軍官被授權在每次空襲中,可以承受最多20名平民的死亡風險,且每日附帶平民傷亡的上限為500人。而這條每日上限在幾天後便被取消。當AI的高速目標推薦,遇上放寬的交戰規則,便形成了一個危險的加速循環:更多目標被快速生成,更寬鬆的規則允許更多攻擊,導致附帶損害急遽上升。
第一手觀察案例來自科技記者雅各布·沃德的分析。他提出了「致命性測試版」這個精準而驚悚的概念。他解釋道:「加薩是原型,伊朗是正式發布。」這意味著,加薩的戰場成為了這套AI作戰系統的實測實驗室,其產生的數據、戰術驗證和「效能展示」,隨後被用於升級系統並推銷至伊朗戰場乃至全球軍火市場。這不僅是戰術應用,更是一種將戰爭本身商品化的產業模式——一個建立在實戰數據上的「軍事-科技複合體」正在IPO(首次公開募股)。
國際社會與法律如何應對「殺手機器人」的崛起?
目前的反應是嚴重落後且碎片化的。國際社會尚未就致命性自主武器系統訂立具有法律約束力的專門條約。雖然聯合國框架下已有多年討論,但主要軍事大國(包括美國、俄羅斯、以色列等)對締結全面禁令態度保留,傾向於制定「負責任使用」的行為準則,這本身便是一個充滿漏洞的框架。
核心的法律挑戰在於「有意義的人類控制」原則。國際紅十字會等組織強調,在武力使用上必須保留人類的最終判斷和決策責任。然而,像「20秒批准」這樣的流程,實質上已經侵蝕了MHCC原則。人類操作員可能僅剩「橡皮圖章」的功能,無法在極短時間內對複雜的目標數據進行獨立評估。這引發了一個根本問題:如果人類的監督只是形式上的,那麼法律上要求的「控制」還存在嗎?
從更廣泛的AI治理來看,歐盟的《人工智慧法案》將軍事用途AI排除在監管範圍外,這被批評為一個巨大的漏洞。各國軍方正積極與Palantir、Scale AI等科技公司合作,將最先進的大型語言模型(如Anthropic的Claude)整合進指揮系統。例如,《華盛頓郵報》報導,在伊朗衝突最初的24小時內,美軍使用的AI工具就協助篩選了1000個潛在目標。這種深度融合使得軍事AI的發展軌跡與民用AI監管完全脫鉤,形成一個不受公眾監督的「黑箱」。
| 應對層面 | 當前狀態 | 主要挑戰 | 關鍵倡議或提案 |
|---|---|---|---|
| 國際法 | 無具約束力專門條約;現有國際人道法適用但解釋有爭議 | 法律更新速度遠慢於科技發展;大國缺乏政治意願 | 聯合國《特定常規武器公約》框架下談判;倡議制定《自主武器系統議定書》 |
| 國家政策 | 少數國家支持禁令;多數國家制定國防部層級原則 | 原則模糊、執行不透明;「負責任使用」定義寬鬆 | 奧地利、巴西等國呼籲具法律約束力文書;美國國防部發布AI倫理原則 |
| 科技與產業 | 軍民兩用技術快速融合;商業公司深度參與 | 商業機密與國家安全阻礙審計與問責;工程師道德責任 | 內部員工抗議(如Google員工反對Maven專案);倡導「不傷害」的AI設計師誓言 |
| 公民社會 | NGO持續監測與倡議;媒體調查揭露 | 資訊高度不透明;公眾認知不足 | 國際紅十字會「人類控制」倡議;「阻止殺手機器人」運動聯盟 |
我們是否正見證戰爭本質的根本性改變?
毫無疑問,是的。我們正在從「由人主導的戰爭」過渡到「由數據和演算法驅動的戰爭」。這場變革不僅關乎武器變得更聰明,更關乎決策權、節奏和戰爭邏輯的轉移。AI將戰爭的「觀察-判斷-決策-行動」循環加速到人類認知無法跟上的程度,這可能導致衝突意外升級的風險大增。當雙方都依賴高速自動化系統時,一個感測器誤判或演算法故障,可能在幾分鐘內觸發一系列連鎖反應,讓人類領導人失去對局勢的控制。
此外,戰爭的「門檻」可能在降低。如果一方相信可以透過AI驅動的精準(或飽和)打擊,以極低己方傷亡快速達成軍事目標,它可能更傾向於發動先制攻擊或介入衝突。這破壞了戰略穩定性。同時,如報導所指,加薩和伊朗的戰場成為了新技術的「實測場域」,這創造了一種將戰爭「產品化」的可怕激勵機制:為了測試和改良武器系統以利出口,維持或挑起衝突可能符合某些國家的經濟與科技利益。
最後,這關乎我們社會的價值選擇。我們願意將生殺予奪的權力委託給一個統計模型嗎?即使它有90%的準確率?在一個民主社會中,關於是否參戰、如何作戰的決定,理應經過公眾辯論與民主問責。然而,高度機密且技術複雜的AI作戰系統,將決策過程包裹在「國家安全」和「科技黑箱」雙重帷幕之後,讓公民及其代表無法進行有效的監督。我們正在步入一個時代,其中最重要的戰爭決策,可能由少數工程師和未公開的演算法所做出,這對全球安全與民主治理構成了深遠的威脅。
總而言之,以色列被指控在伊朗使用AI目標選定系統的事件,不僅是一場軍事衝突的新聞,更是對全人類的警鐘。它迫使我們必須緊急思考:在擁抱科技帶來的軍事效率的同時,我們要如何捍衛人性、倫理與法律在戰爭中的最終權威?這個問題的答案,將決定我們未來的和平與安全樣貌。
原始來源區塊
- 原文標題: Israel Accused of Using AI to Pick Iran Targets ‘Without Any Human Oversight’ – Just Like in Gaza
- 來源媒體: Antiwar.com Blog
- 作者: Brett Wilkins
- 發布時間: 2026-03-08T11:50:41.000Z
- 原文連結: https://www.antiwar.com/blog/2026/03/08/israel-accused-of-using-ai-to-pick-iran-targets-without-any-human-oversight-just-like-in-gaza/