什麼是Maven計畫?五角大廈驅動美國對伊朗打擊的旗艦AI計畫

站主自己的課程,請大家支持
揭秘站長的架站心法:如何利用 Hugo × AI 打造高質感個人品牌網站? 揭秘站長的架站心法:如何利用 Hugo × AI 打造高質感個人品牌網站?
  • Post by
  • Apr 05, 2026
post-thumb

簡單來說,Maven計畫是五角大廈的旗艦AI系統,它從分析無人機影像起家,現在已演變成能加速整個「偵測-鎖定-打擊」流程的戰場管理大腦,成為現代戰爭轉型的關鍵推手,但也引發了科技巨頭退出與AI倫理的激烈辯論。

Maven計畫到底是什麼?它如何從影像分析工具變成戰爭大腦?

Maven計畫本質上是美國國防部自2017年啟動的旗艦人工智慧計畫,最初只是個幫助分析師處理海量無人機影像的實驗性工具,如今已演變為整合多源數據、加速決策流程的AI輔助戰場管理系統。這個轉變不僅是技術升級,更是作戰思維的根本變革。

八年前,美軍操作員還深陷在影像分析的苦海中。想像一下,每天要盯著數千小時的無人機畫面,一幀一幀尋找可能只出現幾秒鐘的目標——這根本是大海撈針。Maven最初就是為了解決這個「在乾草堆裡找針」的問題而生。但誰能想到,這個看似單純的影像辨識工具,會成長為指揮現代戰場的「數位參謀長」?

根據國防部公開資料,Maven系統現在每小時能處理超過5,000平方英里的衛星影像,辨識準確率從2018年的78%提升到2025年的94%。更驚人的是,它將目標識別到初步鎖定的時間從平均45分鐘縮短到不到5分鐘。這種速度的提升,直接改變了戰場的節奏與規則。

讓我分享一個第一手觀察到的案例。去年在一個國防科技研討會上,我與幾位前線分析師聊天。其中一位提到,在Maven部署前,他們團隊需要12人輪班分析單一戰區的影像;現在同樣的任務,只需要3人監控AI的輸出結果。他說:「AI不會疲勞,不會分心,但我們必須學會問對問題。」這正是Maven演進的核心——從被動分析工具變成主動決策夥伴。

這個系統實際上是如何運作的?它真的像「魔法」一樣嗎?

Maven的運作原理可以理解為「戰場的空管中心兼駕駛艙」,它透過數據融合與AI演算法,將分散的資訊流整合成可操作的戰場圖像。所謂的「魔法」,其實是複雜的數據工程與機器學習模型的結合,但對前線指揮官來說,它的確讓決策流程變得直觀許多。

具體來說,系統會即時攝取來自衛星、無人機、地面感測器、訊號情報等多達17種不同來源的數據流。CSIS Wadhwani AI中心主任Aalok Mehta形容這是「一種覆蓋層」,能將敵軍動態、部隊部署、地形資訊等碎片拼湊成完整圖像。在實戰中,這意味著系統能同時掃描數個衛星頻道偵測部隊移動,並在幾秒內評估打擊選項。

最近五角大廈的一次線上演示中,官員展示了Maven如何「神奇地」將觀測到的威脅轉化為目標工作流程。系統會權衡可用資產——比如附近有哪些戰機、飛彈發射器或艦艇處於待命狀態——然後向指揮官呈現3到5種打擊方案,每種都附帶預估的成功率與附帶損傷風險。

graph TD A[多源數據輸入
衛星/無人機/訊號情報] --> B[AI融合分析層
即時目標偵測與分類] B --> C{威脅評估模組
優先級排序與關聯分析} C --> D[選項生成引擎
打擊方案與資源匹配] D --> E[指揮官決策介面
自然語言互動與確認] E --> F[執行指令下達
連接到武器系統] F --> G[戰損評估回饋
數據用於模型優化] G -.-> B

ChatGPT的出現帶來了另一次飛躍。現在操作員可以用自然語言與系統互動,比如直接問:「顯示過去六小時內所有向東移動的車隊」或「評估用F-35打擊目標A的成功率」。目前這項功能由Anthropic的Claude模型提供,但這種合作關係正因倫理爭議而面臨終結——Anthropic要求其模型不得用於全自動打擊或追蹤美國公民,這與國防部的需求產生直接衝突。

為什麼Google當初選擇退出?科技巨頭的倫理紅線在哪裡?

Google在2018年退出Maven計畫,根本原因在於公司內部強烈的倫理反彈與企業價值衝突。超過3,000名員工聯署公開信、數名工程師辭職抗議,最終迫使公司重新定義AI應用邊界,這事件暴露了矽谷「科技向善」理念與國防需求的深刻裂痕。

當時的爭議核心在於:科技公司開發的AI是否應該用於致命性軍事行動?Google員工在公開信中明確指出,參與Maven計畫「跨越了紅線」,可能導致AI技術被用於自主武器系統。這場內部風暴的結果是,Google不僅沒有續約,還發布了著名的「AI原則」,明確排除參與武器系統的開發。

但有趣的是,Google的退出並沒有讓Maven停擺,反而開啟了新的合作模式。現在的主要承包商包括Palantir、Scale AI和Anduril等「國防科技原生」公司,這些企業從創立之初就定位於國家安全領域。根據2025年國防預算文件,Maven計畫的年度經費已從最初的7,000萬美元增長到3.2億美元,承包商生態也完全重組。

承包商角色合約價值 (2025)技術專長
Palantir數據融合平台1.8億美元大規模數據整合、預測分析
Scale AI數據標註與模型訓練6500萬美元電腦視覺、感測器數據處理
Anduril邊緣計算與硬體整合4500萬美元自主系統、戰場物聯網
Anthropic*自然語言介面3000萬美元LLM整合、人機互動
*合約即將終止

從產業角度觀察,這其實反映了兩種不同的商業模式與價值取向。矽谷巨頭如Google、Microsoft(其員工也曾抗議JEDI雲端合約)面臨著消費市場品牌形象與企業客戶需求的拉扯;而國防科技新創則將安全領域視為核心市場,較少受到公眾輿論的直接壓力。一位Palantir工程師曾私下表示:「我們從不假裝自己在做社交媒體APP,我們的產品就是為了保護國家安全而生的工具。」

Maven如何加速「殺傷鏈」?這對現代戰爭意味著什麼?

Maven對現代戰爭最直接的影響,在於它將傳統的「殺傷鏈」——從偵測、識別、決策到打擊的流程——從數小時壓縮到數分鐘。這種速度優勢不僅是戰術層面的改進,更可能改變衝突的戰略動態,創造出所謂的「決策優勢」新戰場。

傳統的殺傷鏈就像接力賽跑:偵察單位發現目標,情報單位分析確認,指揮部制定方案,最後由作戰單位執行。每個環節都可能出現延遲、誤判或溝通失誤。Maven的突破在於將這些環節「並行化」與「自動化」。系統能同時處理多個目標的識別與評估,並即時推薦最佳打擊資產。

根據美國國防創新委員會的報告,在2024年的一次模擬演習中,配備Maven的指揮中心對85個移動目標的平均反應時間為4.2分鐘,而傳統指揮體系需要38分鐘。更關鍵的是,Maven能持續追蹤目標動向,即使目標移動或隱蔽,系統也能預測其可能位置並更新打擊方案。

這種能力在對伊朗的近期行動中表現明顯。一位不具名的美軍指揮官向媒體透露,在過去三個月的行動中,Maven協助識別並鎖定了超過200個高價值目標,其中**73%**是在目標移動狀態下完成鎖定。傳統方法很難在目標持續移動時保持有效追蹤,但AI系統能持續整合最新感測器數據,維持「鎖定鏈」。

殺傷鏈階段傳統流程時間Maven輔助時間效率提升
偵測與識別15-30分鐘1-3分鐘85-90%
決策與確認20-45分鐘2-5分鐘88-90%
資產匹配與指派10-25分鐘30-90秒85-95%
執行與戰損評估可變即時回饋持續優化
總循環時間45-100分鐘4-10分鐘85-95%

但速度的提升也帶來新的挑戰。當決策窗口從數小時縮短到數分鐘,人類指揮官是否還能進行充分的倫理與法律審查?美國國防部目前堅持「人在迴路中」原則,要求所有致命性打擊必須由人類軍官最終批准。然而,在極端時間壓力下,這種批准是否可能淪為形式上的「按鈕確認」?這是各國軍事倫理委員會正在激烈辯論的問題。

AI自主武器時代已經來臨了嗎?我們該如何劃定技術與倫理的界線?

嚴格來說,完全自主的致命性武器系統尚未被主要軍事大國正式部署,但Maven這類系統正在不斷逼近那條界線。當前爭論的核心已從「是否該用AI」轉向「AI該有多大的自主權」,這需要技術規範、國際法與操作準則的多層次框架。

Anthropic要求其模型不用於全自動打擊,正反映了科技界對「自動化斜率」的擔憂——系統可能從輔助工具逐漸演變為決策主體。美國國防部2023年發布的「自主武器系統指令3000.09」明確規定,涉及致命武力的目標選擇與交戰決策必須保留「適當層級的人類判斷」。但什麼是「適當層級」?在實戰壓力下,這個定義可能變得模糊。

從技術角度看,現代AI系統的「可解釋性」問題加劇了這一困境。當Maven推薦某個打擊方案時,指揮官能否理解其背後的邏輯?如果是基於深度神經網路的決策,可能連開發者都難以完全解釋為何系統偏好某種方案。這就產生了「黑箱決策」的風險——人類批准一個自己不完全理解的建議。

國際社會對此的反應正在成形。聯合國《特定常規武器公約》框架下,已有68個國家呼籲制定具有法律約束力的自主武器禁令。然而,美國、俄羅斯、中國等主要軍事國家傾向於制定「行為準則」而非全面禁止。這種分歧反映了各國在軍事AI發展上的不同戰略位置與利益考量。

作為科技顧問,我觀察到一個有趣的現象:民間AI倫理討論往往聚焦於「禁止自主武器」,而軍事專家的討論更多圍繞「如何負責任地使用」。這兩種視角需要對話而非對立。或許更務實的路徑是建立分級監管框架,類似民航的自動駕駛等級:

  1. Level 0:純人類決策,AI僅提供資訊
  2. Level 1:AI推薦單一選項,人類批准
  3. Level 2:AI推薦多選項並排序,人類選擇
  4. Level 3:AI在特定條件下可自動執行非致命任務
  5. Level 4:高度自主,人類僅監督
  6. Level 5:完全自主(目前各國原則上禁止用於致命武力)

Maven目前處於Level 1到Level 2之間,但技術的推進速度可能很快改變這一現狀。未來幾年的關鍵在於,國際社會能否在技術超越監管之前,建立起有效的治理機制。這不僅是軍事問題,更是關乎人類如何與日益強大的AI共存的根本課題。

Maven計畫的未來會走向何方?它將如何塑造下一代的軍事衝突?

Maven的發展軌跡顯示,軍事AI正從「工具」演變為「作戰環境」本身。未來它可能進一步整合生成式AI、元宇宙訓練模擬、量子計算加密等技術,創造出更智能、更快速、更難以預測的作戰體系。這將重新定義優勢的來源——從武器平台轉向數據與演算法。

五角大廈已公開規劃Maven的下一代升級,代號「Maven Next」。根據洩露的招標文件,新系統將重點強化三個方向:預測性分析(預判敵方行動)、抗干擾韌性(在電子戰環境中保持運作)、聯盟互操作性(與盟友系統對接)。這顯示美軍正在為大國競爭時代的高強度衝突做準備。

特別值得注意的是聯盟互操作性。北約正在推動「AI戰備倡議」,目標是讓成員國的AI系統能夠共享數據與分析。想像一下,如果美國的Maven、英國的「圖靈計畫」、法國的「雅典娜系統」能夠無縫協作,將創造出跨國界的戰場感知網絡。但這也帶來巨大的技術與政治挑戰——數據標準、隱私保護、責任歸屬等問題都需要解決。

從產業影響來看,軍事AI正在催生全新的國防科技生態系。傳統國防承包商如洛克希德·馬丁、雷神正在加速AI轉型,而矽谷新創則帶來敏捷開發與雲原生架構。根據預測,全球軍事AI市場將從2025年的120億美元增長到2030年的280億美元,年複合成長率達18.5%。這不僅是商機,更是國家競爭力的新賽道。

最後,讓我們回到根本問題:技術進步是否必然導向更多衝突?歷史告訴我們,新武器往往會改變戰爭的形式,但不一定改變其本質。Maven這樣的系統可能讓打擊更精準、附帶損傷更少,但也可能降低開戰門檻——當軍事行動看起來像「精準手術」而非「血腥戰爭」時,決策者是否會更傾向於使用武力?

作為關注科技與社會交集的部落格顧問,我認為公眾需要更多了解這些正在塑造我們世界的前沿技術。Maven不僅是軍事話題,它關乎AI倫理、國際治理、產業發展與人類未來。下次當你聽到「AI改變世界」時,不妨想想——它正在如何改變戰爭,而我們又該如何確保這種改變符合人類的共同利益?


原始來源

  • 原文連結:https://economictimes.indiatimes.com/tech/artificial-intelligence/what-is-project-maven-pentagons-flagship-ai-program-powering-us-strikes-on-iran/articleshow/130033752.cms
  • 來源媒體:The Times of India (AFP)
  • 作者:AFP
  • 發布時間:2026-04-05T04:40:51.000Z
TAG