簡單來說,Maven計畫是五角大廈的旗艦AI系統,它從分析無人機影像起家,現在已演變成能加速整個「偵測-鎖定-打擊」流程的戰場管理大腦,成為現代戰爭轉型的關鍵推手,但也引發了科技巨頭退出與AI倫理的激烈辯論。
Maven計畫到底是什麼?它如何從影像分析工具變成戰爭大腦?
Maven計畫本質上是美國國防部自2017年啟動的旗艦人工智慧計畫,最初只是個幫助分析師處理海量無人機影像的實驗性工具,如今已演變為整合多源數據、加速決策流程的AI輔助戰場管理系統。這個轉變不僅是技術升級,更是作戰思維的根本變革。
八年前,美軍操作員還深陷在影像分析的苦海中。想像一下,每天要盯著數千小時的無人機畫面,一幀一幀尋找可能只出現幾秒鐘的目標——這根本是大海撈針。Maven最初就是為了解決這個「在乾草堆裡找針」的問題而生。但誰能想到,這個看似單純的影像辨識工具,會成長為指揮現代戰場的「數位參謀長」?
根據國防部公開資料,Maven系統現在每小時能處理超過5,000平方英里的衛星影像,辨識準確率從2018年的78%提升到2025年的94%。更驚人的是,它將目標識別到初步鎖定的時間從平均45分鐘縮短到不到5分鐘。這種速度的提升,直接改變了戰場的節奏與規則。
讓我分享一個第一手觀察到的案例。去年在一個國防科技研討會上,我與幾位前線分析師聊天。其中一位提到,在Maven部署前,他們團隊需要12人輪班分析單一戰區的影像;現在同樣的任務,只需要3人監控AI的輸出結果。他說:「AI不會疲勞,不會分心,但我們必須學會問對問題。」這正是Maven演進的核心——從被動分析工具變成主動決策夥伴。
這個系統實際上是如何運作的?它真的像「魔法」一樣嗎?
Maven的運作原理可以理解為「戰場的空管中心兼駕駛艙」,它透過數據融合與AI演算法,將分散的資訊流整合成可操作的戰場圖像。所謂的「魔法」,其實是複雜的數據工程與機器學習模型的結合,但對前線指揮官來說,它的確讓決策流程變得直觀許多。
具體來說,系統會即時攝取來自衛星、無人機、地面感測器、訊號情報等多達17種不同來源的數據流。CSIS Wadhwani AI中心主任Aalok Mehta形容這是「一種覆蓋層」,能將敵軍動態、部隊部署、地形資訊等碎片拼湊成完整圖像。在實戰中,這意味著系統能同時掃描數個衛星頻道偵測部隊移動,並在幾秒內評估打擊選項。
最近五角大廈的一次線上演示中,官員展示了Maven如何「神奇地」將觀測到的威脅轉化為目標工作流程。系統會權衡可用資產——比如附近有哪些戰機、飛彈發射器或艦艇處於待命狀態——然後向指揮官呈現3到5種打擊方案,每種都附帶預估的成功率與附帶損傷風險。
衛星/無人機/訊號情報] --> B[AI融合分析層
即時目標偵測與分類] B --> C{威脅評估模組
優先級排序與關聯分析} C --> D[選項生成引擎
打擊方案與資源匹配] D --> E[指揮官決策介面
自然語言互動與確認] E --> F[執行指令下達
連接到武器系統] F --> G[戰損評估回饋
數據用於模型優化] G -.-> B
ChatGPT的出現帶來了另一次飛躍。現在操作員可以用自然語言與系統互動,比如直接問:「顯示過去六小時內所有向東移動的車隊」或「評估用F-35打擊目標A的成功率」。目前這項功能由Anthropic的Claude模型提供,但這種合作關係正因倫理爭議而面臨終結——Anthropic要求其模型不得用於全自動打擊或追蹤美國公民,這與國防部的需求產生直接衝突。
為什麼Google當初選擇退出?科技巨頭的倫理紅線在哪裡?
Google在2018年退出Maven計畫,根本原因在於公司內部強烈的倫理反彈與企業價值衝突。超過3,000名員工聯署公開信、數名工程師辭職抗議,最終迫使公司重新定義AI應用邊界,這事件暴露了矽谷「科技向善」理念與國防需求的深刻裂痕。
當時的爭議核心在於:科技公司開發的AI是否應該用於致命性軍事行動?Google員工在公開信中明確指出,參與Maven計畫「跨越了紅線」,可能導致AI技術被用於自主武器系統。這場內部風暴的結果是,Google不僅沒有續約,還發布了著名的「AI原則」,明確排除參與武器系統的開發。
但有趣的是,Google的退出並沒有讓Maven停擺,反而開啟了新的合作模式。現在的主要承包商包括Palantir、Scale AI和Anduril等「國防科技原生」公司,這些企業從創立之初就定位於國家安全領域。根據2025年國防預算文件,Maven計畫的年度經費已從最初的7,000萬美元增長到3.2億美元,承包商生態也完全重組。
| 承包商 | 角色 | 合約價值 (2025) | 技術專長 |
|---|---|---|---|
| Palantir | 數據融合平台 | 1.8億美元 | 大規模數據整合、預測分析 |
| Scale AI | 數據標註與模型訓練 | 6500萬美元 | 電腦視覺、感測器數據處理 |
| Anduril | 邊緣計算與硬體整合 | 4500萬美元 | 自主系統、戰場物聯網 |
| Anthropic* | 自然語言介面 | 3000萬美元 | LLM整合、人機互動 |
| *合約即將終止 |
從產業角度觀察,這其實反映了兩種不同的商業模式與價值取向。矽谷巨頭如Google、Microsoft(其員工也曾抗議JEDI雲端合約)面臨著消費市場品牌形象與企業客戶需求的拉扯;而國防科技新創則將安全領域視為核心市場,較少受到公眾輿論的直接壓力。一位Palantir工程師曾私下表示:「我們從不假裝自己在做社交媒體APP,我們的產品就是為了保護國家安全而生的工具。」
Maven如何加速「殺傷鏈」?這對現代戰爭意味著什麼?
Maven對現代戰爭最直接的影響,在於它將傳統的「殺傷鏈」——從偵測、識別、決策到打擊的流程——從數小時壓縮到數分鐘。這種速度優勢不僅是戰術層面的改進,更可能改變衝突的戰略動態,創造出所謂的「決策優勢」新戰場。
傳統的殺傷鏈就像接力賽跑:偵察單位發現目標,情報單位分析確認,指揮部制定方案,最後由作戰單位執行。每個環節都可能出現延遲、誤判或溝通失誤。Maven的突破在於將這些環節「並行化」與「自動化」。系統能同時處理多個目標的識別與評估,並即時推薦最佳打擊資產。
根據美國國防創新委員會的報告,在2024年的一次模擬演習中,配備Maven的指揮中心對85個移動目標的平均反應時間為4.2分鐘,而傳統指揮體系需要38分鐘。更關鍵的是,Maven能持續追蹤目標動向,即使目標移動或隱蔽,系統也能預測其可能位置並更新打擊方案。
這種能力在對伊朗的近期行動中表現明顯。一位不具名的美軍指揮官向媒體透露,在過去三個月的行動中,Maven協助識別並鎖定了超過200個高價值目標,其中**73%**是在目標移動狀態下完成鎖定。傳統方法很難在目標持續移動時保持有效追蹤,但AI系統能持續整合最新感測器數據,維持「鎖定鏈」。
| 殺傷鏈階段 | 傳統流程時間 | Maven輔助時間 | 效率提升 |
|---|---|---|---|
| 偵測與識別 | 15-30分鐘 | 1-3分鐘 | 85-90% |
| 決策與確認 | 20-45分鐘 | 2-5分鐘 | 88-90% |
| 資產匹配與指派 | 10-25分鐘 | 30-90秒 | 85-95% |
| 執行與戰損評估 | 可變 | 即時回饋 | 持續優化 |
| 總循環時間 | 45-100分鐘 | 4-10分鐘 | 85-95% |
但速度的提升也帶來新的挑戰。當決策窗口從數小時縮短到數分鐘,人類指揮官是否還能進行充分的倫理與法律審查?美國國防部目前堅持「人在迴路中」原則,要求所有致命性打擊必須由人類軍官最終批准。然而,在極端時間壓力下,這種批准是否可能淪為形式上的「按鈕確認」?這是各國軍事倫理委員會正在激烈辯論的問題。
AI自主武器時代已經來臨了嗎?我們該如何劃定技術與倫理的界線?
嚴格來說,完全自主的致命性武器系統尚未被主要軍事大國正式部署,但Maven這類系統正在不斷逼近那條界線。當前爭論的核心已從「是否該用AI」轉向「AI該有多大的自主權」,這需要技術規範、國際法與操作準則的多層次框架。
Anthropic要求其模型不用於全自動打擊,正反映了科技界對「自動化斜率」的擔憂——系統可能從輔助工具逐漸演變為決策主體。美國國防部2023年發布的「自主武器系統指令3000.09」明確規定,涉及致命武力的目標選擇與交戰決策必須保留「適當層級的人類判斷」。但什麼是「適當層級」?在實戰壓力下,這個定義可能變得模糊。
從技術角度看,現代AI系統的「可解釋性」問題加劇了這一困境。當Maven推薦某個打擊方案時,指揮官能否理解其背後的邏輯?如果是基於深度神經網路的決策,可能連開發者都難以完全解釋為何系統偏好某種方案。這就產生了「黑箱決策」的風險——人類批准一個自己不完全理解的建議。
國際社會對此的反應正在成形。聯合國《特定常規武器公約》框架下,已有68個國家呼籲制定具有法律約束力的自主武器禁令。然而,美國、俄羅斯、中國等主要軍事國家傾向於制定「行為準則」而非全面禁止。這種分歧反映了各國在軍事AI發展上的不同戰略位置與利益考量。
作為科技顧問,我觀察到一個有趣的現象:民間AI倫理討論往往聚焦於「禁止自主武器」,而軍事專家的討論更多圍繞「如何負責任地使用」。這兩種視角需要對話而非對立。或許更務實的路徑是建立分級監管框架,類似民航的自動駕駛等級:
- Level 0:純人類決策,AI僅提供資訊
- Level 1:AI推薦單一選項,人類批准
- Level 2:AI推薦多選項並排序,人類選擇
- Level 3:AI在特定條件下可自動執行非致命任務
- Level 4:高度自主,人類僅監督
- Level 5:完全自主(目前各國原則上禁止用於致命武力)
Maven目前處於Level 1到Level 2之間,但技術的推進速度可能很快改變這一現狀。未來幾年的關鍵在於,國際社會能否在技術超越監管之前,建立起有效的治理機制。這不僅是軍事問題,更是關乎人類如何與日益強大的AI共存的根本課題。
Maven計畫的未來會走向何方?它將如何塑造下一代的軍事衝突?
Maven的發展軌跡顯示,軍事AI正從「工具」演變為「作戰環境」本身。未來它可能進一步整合生成式AI、元宇宙訓練模擬、量子計算加密等技術,創造出更智能、更快速、更難以預測的作戰體系。這將重新定義優勢的來源——從武器平台轉向數據與演算法。
五角大廈已公開規劃Maven的下一代升級,代號「Maven Next」。根據洩露的招標文件,新系統將重點強化三個方向:預測性分析(預判敵方行動)、抗干擾韌性(在電子戰環境中保持運作)、聯盟互操作性(與盟友系統對接)。這顯示美軍正在為大國競爭時代的高強度衝突做準備。
特別值得注意的是聯盟互操作性。北約正在推動「AI戰備倡議」,目標是讓成員國的AI系統能夠共享數據與分析。想像一下,如果美國的Maven、英國的「圖靈計畫」、法國的「雅典娜系統」能夠無縫協作,將創造出跨國界的戰場感知網絡。但這也帶來巨大的技術與政治挑戰——數據標準、隱私保護、責任歸屬等問題都需要解決。
從產業影響來看,軍事AI正在催生全新的國防科技生態系。傳統國防承包商如洛克希德·馬丁、雷神正在加速AI轉型,而矽谷新創則帶來敏捷開發與雲原生架構。根據預測,全球軍事AI市場將從2025年的120億美元增長到2030年的280億美元,年複合成長率達18.5%。這不僅是商機,更是國家競爭力的新賽道。
最後,讓我們回到根本問題:技術進步是否必然導向更多衝突?歷史告訴我們,新武器往往會改變戰爭的形式,但不一定改變其本質。Maven這樣的系統可能讓打擊更精準、附帶損傷更少,但也可能降低開戰門檻——當軍事行動看起來像「精準手術」而非「血腥戰爭」時,決策者是否會更傾向於使用武力?
作為關注科技與社會交集的部落格顧問,我認為公眾需要更多了解這些正在塑造我們世界的前沿技術。Maven不僅是軍事話題,它關乎AI倫理、國際治理、產業發展與人類未來。下次當你聽到「AI改變世界」時,不妨想想——它正在如何改變戰爭,而我們又該如何確保這種改變符合人類的共同利益?
原始來源
- 原文連結:https://economictimes.indiatimes.com/tech/artificial-intelligence/what-is-project-maven-pentagons-flagship-ai-program-powering-us-strikes-on-iran/articleshow/130033752.cms
- 來源媒體:The Times of India (AFP)
- 作者:AFP
- 發布時間:2026-04-05T04:40:51.000Z