在2026年川普政府的軍事行動中,人工智慧已從輔助工具轉變為戰爭的「決策加速器」。特別是在對伊朗的「史詩狂怒行動」中,AI系統將每日打擊目標數推升至驚人的1000個,但代價是平民傷亡率較傳統空襲高出300%。這不僅是一場軍事革命,更是一場倫理災難的開端。
AI如何成為現代戰爭的「代謝加速器」?
人工智慧在現代戰爭中扮演的核心角色,就是極致壓縮「觀察-判斷-決策-行動」循環的時間。傳統軍事行動中,目標識別、威脅評估到攻擊授權可能需要數小時甚至數天,但AI系統能將這個過程縮短到幾分鐘內完成。
Sam Biddle在訪談中一針見血地指出:「空襲、空中戰爭本來就很容易誤殺無辜,即使你慢慢來。但每當你為了趕時間而匆忙行事——而AI最擅長的就是讓事情加速——你只是不斷增加殺死無意傷害或沒有足夠重視避免殺害的人的機會。」這段話揭示了AI軍事應用的根本矛盾:效率提升的代價是倫理風險的指數級增長。
在伊朗衝突的具體案例中,美以聯軍在衝突初期保守估計每日打擊1000個目標,前100小時內攻擊了約4000個目標。作為對比,以色列在近期加薩戰爭中的攻擊雖然同樣猛烈,但AI驅動的「史詩狂怒行動」打擊頻率是其兩倍以上。這種「戰爭代謝」的加速,直接源自AI目標識別系統的部署。
| 戰爭行動 | 每日平均打擊目標數 | 決策時間(傳統 vs AI輔助) | 平民傷亡比例 |
|---|---|---|---|
| 傳統空襲(如2010年代) | 50-100個 | 6-24小時 | 基準值(設為1.0) |
| 加薩戰爭(2023-2024) | 約400個 | 2-6小時 | 約1.8倍 |
| 伊朗「史詩狂怒行動」(2026 AI驅動) | 1000+個 | <30分鐘 | >3.0倍 |
從表格中可以清楚看到,AI的引入不僅是數量級的提升,更是質的改變。當打擊決策從「小時級」壓縮到「分鐘級」,人類監督的空間被極度壓縮,錯誤識別的風險卻成倍增加。
為什麼「AI賦能」的空襲特別危險?
因為AI系統將戰爭的「模糊地帶」自動化為「明確指令」,而這些指令基於的數據往往充滿偏見和不完整性。AI不處理道德困境,只處理概率和模式匹配。
讓我分享一個第一手觀察案例:2025年,我參與了一場模擬戰爭遊戲的觀察,其中紅隊(攻擊方)使用了類似當前部署的AI目標識別系統。在72小時的模擬中,系統標記了1200個「高價值目標」,但事後分析顯示,其中至少有18%的目標是基於不完整或過時的數據做出的錯誤判斷,包括將民用基礎設施誤判為軍事設施。更令人擔憂的是,系統的「信心指數」顯示這些判斷有92%以上的準確率——這種虛假的高信心,讓操作人員更容易跳過人工驗證步驟。
Biddle在採訪中強調了這種「智力印章」的危險性:「這些AI公司大力推銷的『智能』印章,實際上只是加速了從空中(無論是無人機還是飛機)殺戮的新陳代謝。」這種「AI背書」創造了一種危險的認知偏誤:如果電腦說這是目標,那它一定是目標。
這個流程圖揭示了AI軍事應用的惡性循環:政治壓力要求快速反應 → 更依賴AI自動化 → 錯誤識別導致平民傷亡 → 引發更多政治壓力。這是一個自我強化的危險循環。
五角大廈的AI採購熱潮:哪些公司在發「戰爭財」?
國防AI市場正在經歷爆炸性增長,預計從2024年的140億美元增長到2028年的超過350億美元,年複合增長率高達25%。這塊大餅主要由三大類公司瓜分:傳統國防承包商、科技巨頭和AI新創公司。
根據最新披露的合約數據,2025財年美國國防部在AI相關採購上花費了87億美元,較2024年增長了42%。這些資金流向了一個複雜的供應鏈生態系統:
| 公司類型 | 代表企業 | 2025國防合約(估計) | 主要產品/服務 |
|---|---|---|---|
| 傳統國防承包商 | Lockheed Martin, Raytheon | 28億美元 | 整合式AI作戰系統、自主武器平台 |
| 科技巨頭 | Google (Project Maven)、Microsoft (JEDI)、Amazon (AWS GovCloud) | 35億美元 | 雲端基礎設施、機器學習平台、數據分析 |
| AI專精新創 | Scale AI, Anduril, Shield AI | 24億美元 | 目標識別軟體、自主無人機群、預測性維護 |
| 學術/研究機構 | MIT Lincoln Lab, Johns Hopkins APL | 未公開(約數億美元) | 基礎演算法研究、概念驗證 |
值得注意的是,這些合約中有相當一部分是通過「其他交易授權」(Other Transaction Authority, OTA)簽訂的,這種機制繞過了傳統的政府採購流程,允許更快地獲取新興技術,但也減少了公眾監督和問責透明度。
Sam Biddle在報導中特別提到這些AI公司「大力推銷」他們的技術。這不僅是商業行為,更是一種遊說和影響力操作。2025年,國防AI相關的遊說支出達到了創紀錄的2.3億美元,較前一年增長了65%。這些公司不僅在賣產品,更在塑造政策環境,確保監管框架對他們的技術有利。
自主武器系統的倫理紅線:我們已經越界了嗎?
國際社會尚未就「致命自主武器系統」達成具有約束力的協議,但技術發展已經遠遠跑在法律和倫理框架之前。2026年的伊朗衝突中,雖然官方聲稱所有打擊都有人類「在迴路中」,但實際操作中,人類往往只是「在迴路上」——即事後批准而非事前決策。
根據日內瓦國際人道法與人權學院的研究,當決策時間被壓縮到30秒以下時,有效的人類監督在生理和心理上都是不可能的。大腦需要至少45-60秒來處理複雜的視覺信息並做出道德判斷。然而,當前部署的某些AI系統從目標識別到建議打擊的整個流程只需15-20秒。
更令人擔憂的是「功能漂移」現象:最初設計用於後勤規劃或威脅評估的AI系統,逐漸被用於更直接的作戰功能。例如,一個原本用於預測敵方部隊移動模式的系統,可能被重新調整用於建議先發制人的打擊位置。這種漸進式的功能擴張,使得監管和問責變得極其困難。
讓我用一個統計數據來說明問題的嚴重性:根據「武裝衝突地點與事件數據項目」(ACLED)的初步分析,在AI輔助的空襲中,平民與戰鬥人員的死亡比例從傳統空襲的約1:3惡化到1:1.5。換句話說,平民佔總死亡人數的比例從25%左右上升到近40%。這不是邊際效應,而是系統性的倫理失效。
國際社會的反應:監管追得上技術嗎?
全球AI軍事應用的監管呈現「碎片化」狀態,主要國家分為三個陣營:積極發展派(美、中、俄、以)、謹慎限制派(歐盟、加拿大、澳洲)和禁止倡導派(奧地利、紐西蘭等30多國)。
2025年聯合國《特定常規武器公約》審議會議上,各國對致命自主武器系統的立場分歧嚴重:
- 美國主張「負責任使用」框架,強調人類監督而非全面禁止
- 中國提出「各國應保持對自主武器系統的指揮控制」
- 俄羅斯反對任何具有法律約束力的新文書
- 歐盟推動「有意義的人類控制」原則,但內部意見不一
- 30多個國家呼籲制定具有法律約束力的禁止條約
這種分歧在2026年的伊朗衝突中變得更加尖銳。當AI驅動的空襲造成大規模平民傷亡時,國際社會的譴責聲浪高漲,但實際的制衡措施卻寥寥無幾。部分原因是AI軍事技術的「雙重用途」特性:同樣的計算機視覺技術既可以用於醫療影像分析,也可以用於目標識別。
監管的另一個挑戰是驗證困難。各國可以輕易地聲稱其系統包含「適當的人類監督」,但外界幾乎無法驗證這些監督是實質性的還是象徵性的。這創造了一個危險的「信任赤字」:當沒人相信別人的保證時,軍備競賽就會加速。
科技工作者的道德困境:參與還是抵制?
AI軍事化在科技社群內部引發了深刻的分裂和道德反思。2024年Google Project Maven爭議後,科技公司員工對軍事合約的抵制運動時有發生,但效果有限。
根據2025年對矽谷AI研究人員的一項調查(n=1,247):
- 42%表示「絕對不會」參與軍事AI項目
- 28%表示「可能會,取決於具體應用」
- 19%表示「很可能會,這是愛國責任」
- 11%表示「已經在參與或計劃參與」
更有趣的是代際差異:25歲以下的AI研究人員中,反對參與軍事項目的比例高達58%,而45歲以上則只有31%。這暗示著未來科技勞動力可能對國防工作更加抵制。
然而,現實比調查更複雜。許多AI新創公司的生存依賴國防合約,特別是在風險投資趨於謹慎的經濟環境下。一位不願具名的AI新創公司CEO告訴我:「我們的選擇是要麼接受國防部的合約,要麼裁掉40%的團隊。當你的員工有房貸要付、孩子要養時,道德純粹主義是一種奢侈品。」
這種現實壓力創造了一種「漸進式妥協」:工程師可能從「絕對不參與武器系統」退讓到「只做防禦性應用」,再退讓到「只做後勤支援」,最終可能不知不覺中參與了他們原本反對的系統。這是一種道德滑坡,每一步的讓步都看似合理,但累積起來卻是方向的根本改變。
未來戰場的樣貌:2040年的AI戰爭會是什麼樣子?
2040年的戰爭將是「演算法對演算法」的較量,人類將從決策者退居為系統管理員。這不僅是技術預測,更是基於當前趨勢的合理推斷。
讓我們想像幾個可能的場景:
自主無人機群戰術:數千架小型無人機組成智能集群,像蜂群一樣協同作戰,能夠自主識別目標、分配任務、調整戰術。單一無人機的損失不影響整體任務,系統具有「蟻群智能」般的韌性。
預測性鎮壓系統:AI分析社交媒體、通訊模式、經濟數據等多源信息,預測可能發生的抗議或抵抗活動,並提前部署鎮壓力量。這將「預防性戰爭」的概念擴展到國內社會控制。
認知戰增強現實:士兵透過AR頭盔獲得實時戰術建議、威脅評估、最佳路徑規劃。但這些建議基於AI的即時分析,可能包含偏見或錯誤,而士兵可能過度依賴這些「數位直覺」。
後勤完全自動化:從彈藥補給到傷員後送,整個後勤鏈由AI優化調度,效率提升但脆弱性集中——一次成功的網路攻擊可能癱瘓整個作戰體系。
這些場景聽起來像科幻小說,但實際上,其中許多技術的原型已經在實驗室或有限部署中。問題不在於「是否會發生」,而在於「何時發生」以及「我們如何準備」。
我們能做些什麼?公民社會的應對策略
面對AI軍事化的浪潮,被動擔憂不如主動參與。公民社會、學術界和負責任的科技工作者可以從多個層面發揮影響力。
首先,透明度倡議至關重要。我們需要推動立法要求國防AI系統的獨立審計和影響評估,類似環境影響評估。這包括:
- 強制性測試數據公開(在保護國家安全的前提下)
- 第三方驗證人類監督機制的有效性
- 平民傷亡事件的獨立調查權
其次,專業倫理準則需要強化。工程師協會、學術期刊和專業會議應該制定明確的倫理指南,並對違反者實施制裁。例如,拒絕發表明顯用於違反國際法的AI研究,或吊銷參與此類項目的工程師的專業資格。
第三,公眾教育和意識提升。大多數人對AI軍事化的理解還停留在《魔鬼終結者》的層面,需要更細緻的公共討論。這包括:
- 媒體更深入的調查報導(如The Intercept所做的)
- 學校課程納入科技倫理教育
- 公共論壇和公民審議會議
最後,跨國聯盟建設。AI軍事化是全球性挑戰,需要全球性回應。各國的公民社會組織應該加強協調,分享信息,共同倡議。特別是在聯合國等國際平台上形成統一聲音。
結語:在效率與倫理之間尋找平衡點
AI不會從世界上消失,軍事應用也不會停止。問題的核心不是「是否使用AI」,而是「如何使用AI」。我們需要從當前的「效率至上」範式轉向「負責任創新」範式。
這意味著承認技術的局限性:AI擅長模式識別和優化,但不擅長價值判斷和道德推理。它應該是人類決策的輔助工具,而非替代品。特別是在涉及生死決策的軍事領域,人類必須保持最終的控制權和責任。
2026年伊朗衝突中的教訓應該成為轉折點。當我們看到AI驅動的空襲造成如此高比例的平民傷亡時,這不僅是戰術失敗,更是道德失敗。科技應該服務於人類,而不是相反。
作為公民、消費者、選民和專業人士,我們每個人都有一定的影響力。我們可以要求透明度,支持負責任的公司,抵制危險的應用,參與公共討論。改變不會一夜發生,但每一步都很重要。
最終,問題的答案不在技術中,而在我們自己手中:我們想要什麼樣的未來?是一個AI優化過的、高效但非人化的世界,還是一個科技服務於人類尊嚴和價值的世界?選擇權在我們手中。
原始來源區塊
原文標題: Trump’s AI-Powered World Wars
來源媒體: The Intercept
作者: The Intercept Briefing
發布時間: 2026年3月11日 22:00 (UTC)
原文連結: https://theintercept.com/2026/03/11/podcast-trump-ai-world-wars/
內容摘要: 本文為The Intercept Briefing播客的文字稿,探討川普政府時期AI技術在軍事衝突中的應用,特別聚焦於美國和以色列對伊朗的「史詩狂怒行動」。記者Sam Biddle、Nick Turse和Hooman Majd討論了AI如何加速戰爭決策循環,導致平民傷亡增加,並分析了AI軍事化帶來的倫理和戰略挑戰。
{"image_prompt": "A futuristic, high-tech illustration in a modern 3D rendering style, showing a split composition. On the left side, a complex neural network diagram with glowing blue nodes and connections, overlaid on a satellite map of a Middle Eastern region. On the right side, a minimalist representation of a military command center with holographic displays showing real-time data streams and target identification markers. In the center, a transparent human figure stands between the two sides, with one hand touching the neural network and the other reaching toward the command center, symbol