前Uber首席業務官Emil Michael如今擔任美國國防部(已更名為戰爭部)副部長,正率領政府對AI公司Anthropic發動全面施壓。這場衝突的核心是價值約2億美元的國防合約,以及AI在軍事應用中應受多少倫理限制的根本分歧。
為什麼一位矽谷高層會成為對抗AI公司的政府官員?
Emil Michael的職業軌跡完美體現了「旋轉門」現象——在科技巨頭與政府高層之間自由穿梭。這位埃及出生、哈佛與斯坦福培養的精英,從高盛投資銀行家轉戰科技創業,再進入Uber擔任二號人物,最終在川普政府中獲得重要職位。他的轉變不僅是個人職業選擇,更反映了美國科技與軍事複合體日益緊密的結合。
Michael在2024年12月被川普任命為國防部(後更名為戰爭部)負責研究與工程的副部長。這項任命背後有明確的戰略意圖:川普政府希望將矽谷的「快速行動、打破常規」文化引入軍事體系。Michael公開宣稱:「在AI時代,速度決定勝利,戰爭部將匹配美國AI產業的速度。」這種思維直接來自他在科技行業的經驗,特別是見證了Uber如何通過激進擴張顛覆全球交通產業。
根據國防部發言人向《財富》雜誌透露的數據,Michael上任前九個月就與超過300家行業合作夥伴進行了接觸,推動了47項新的AI技術整合項目。這種前所未有的推進速度,正是矽谷「閃電擴張」模式在國防領域的體現。然而,這種速度文化與Anthropic等AI公司的謹慎倫理立場產生了直接衝突。
| 時間點 | Emil Michael的職位轉變 | 對應的科技-軍事政策轉向 |
|---|---|---|
| 1999-2007 | Tellme Networks高層(後被微軟以8億美元收購) | 語音識別技術商業化初期 |
| 2014-2017 | Uber首席業務官 | 共享經濟全球擴張期 |
| 2021-2024 | 科技投資人與政府顧問 | AI軍事化討論升溫 |
| 2024年12月至今 | 戰爭部副部長(研究與工程) | 「AI優先」國防戰略正式化 |
Anthropic的「Claude憲法」如何挑戰國防部的AI願景?
Anthropic內部的「Claude憲法」是一套詳細的AI行為準則,明確禁止其模型用於大規模監控美國公民或完全自主的致命系統——即使對政府客戶也是如此。這套憲法不僅是技術限制,更是公司核心價值觀的體現。當Michael團隊試圖重新談判價值2億美元的國防合約時,他們要求Claude必須可用於「所有合法目的」,這直接與Anthropic的倫理紅線相衝突。
Michael對此立場強硬:「你不能讓一家AI公司向戰爭部出售AI,卻不讓它做戰爭部該做的事。」這句話精準概括了雙方的根本分歧。從國防角度來看,AI作為戰略工具不應受到供應商設定的限制;而從Anthropic的角度,某些應用違背了AI安全與人類價值的基本原則。
根據Defense One的報告,Claude模型是少數獲得特定機密環境使用許可的大型語言系統之一,已經通過Palantir等承包商深度整合到國防工作流程中。將其移除可能需要數月時間,這使得Anthropic不僅是供應商,更是軍事新興AI基礎設施的關鍵節點。這種深度整合反而加劇了雙方的對抗——政府依賴該技術,卻不接受其限制。
這場衝突對AI產業與政府關係意味著什麼?
這場對抗不僅是單一合約糾紛,更是定義AI時代政府-企業關係的分水嶺。從歷史角度看,科技公司與政府的合作模式正在經歷根本性重構。過去,矽谷公司普遍對國防合約持謹慎態度,特別是Google員工曾抗議與國防部的Maven項目合作,導致公司退出部分合約。但如今,隨著AI成為地緣戰略競爭的核心,這種動態正在改變。
Michael代表了一種新興的「科技愛國主義」立場,認為頂尖AI公司有責任支持國家安全目標。他在公開演講中強調:「在與中國的AI競賽中,我們不能讓倫理顧慮成為戰略劣勢。」這種觀點在政府內部獲得相當支持,特別是在看到中國AI軍事應用快速進展的背景下。根據戰略與國際研究中心(CSIS)的報告,中國在至少12個關鍵AI軍事應用領域投入了超過150億美元的研發資金。
然而,Anthropic的抵抗顯示另一種趨勢:AI公司日益將倫理準則視為核心競爭優勢與品牌資產。在消費者對AI信任度普遍不高的環境下(皮尤研究中心2025年調查顯示僅34% 的美國公眾信任AI公司的自我監管),堅持倫理立場可能成為市場區隔策略。這場衝突的結果將影響其他AI公司的政策選擇——是跟隨Anthropic設立嚴格限制,還是接受更寬鬆的政府要求以獲取巨額合約?
| 潛在結果情景 | 對AI產業的影響 | 對政府採購的影響 | 對AI倫理治理的影響 |
|---|---|---|---|
| Anthropic妥協,放寬限制 | 其他AI公司面臨放寬壓力 | 政府獲得更大AI應用自由度 | 企業自我監管可信度下降 |
| 政府讓步,接受限制 | 企業倫理立場獲得合法性 | 國防AI應用範圍受限 | 企業在治理中角色增強 |
| 長期僵局,尋找替代方案 | 開源或國內替代方案獲投資 | 供應鏈多元化,成本增加 | 碎片化的倫理標準出現 |
| 立法介入,設定統一標準 | 合規成本上升,創新速度受影響 | 採購流程標準化但更繁瑣 | 政府主導的監管框架確立 |
AI軍事化的速度真的能決定未來衝突的勝負嗎?
Michael主張的「速度決定勝利」論點,源自矽谷的競爭邏輯,但在軍事領域可能過度簡化。確實,AI技術的快速迭代能力為軍事行動提供了新優勢,例如預測性維護可減少30%的裝備故障,智能目標識別將分析時間從數小時縮短至數秒。然而,軍事效能的關鍵不僅是技術速度,更是整合深度、人員培訓與作戰概念的演進。
從歷史教訓看,單純追求技術速度可能導致系統性風險。1980年代美國的「戰略防禦計劃」(星戰計劃)就曾因過度強調技術突破而忽視實際可行性。在AI領域,快速部署未經充分測試的系統可能帶來無法預測的故障模式。北約2025年的一份研究報告指出,過度依賴AI決策支援可能使指揮官面臨「自動化偏見」——即使AI給出錯誤建議,人類操作員仍有高達75% 的可能性盲目跟從。
更根本的問題是:軍事AI的「速度」應該以什麼為代價?Anthropic的立場暗示,某些倫理底線不應因速度需求而被跨越。這引發了關於「負責任創新」的深刻討論——在國家安全壓力下,如何平衡創新速度與風險管控?Michael團隊推動的「戰時速度」方法,可能需要在實戰測試中證明其長期可持續性。
企業倫理準則能有效約束政府AI應用嗎?
Anthropic的「Claude憲法」代表了AI行業自我監管的最雄心勃勃嘗試,但其對政府客戶的實際約束力正面臨嚴峻考驗。從法律角度,商業合約確實可以設定使用限制,但政府可能通過立法或行政命令推翻這些限制。川普的Truth Social貼文就暗示了這種可能性:「我指示美國政府每個聯邦機構立即停止所有Anthropic技術的使用…否則將面臨未明確說明的後果。」
這種權力不對稱凸顯了企業倫理準則的內在局限性。當面對國家安全論述與政府採購權力時,即使是估值數百億美元的科技公司也可能處於弱勢。然而,Anthropic的抵抗也展示了新的可能性:通過將倫理原則深度嵌入技術架構(而不僅僅是合約條款),公司可以創造事實上的限制。例如,通過技術設計使模型在檢測到某些應用場景時自動降低性能或拒絕操作。
從全球視角看,這場衝突將影響其他民主國家對AI軍事化的態度。歐盟AI法案已經對高風險AI系統設定了嚴格限制,包括軍事應用。如果美國政府成功迫使Anthropic讓步,可能削弱全球AI倫理標準的一致性。相反,如果Anthropic堅持立場並獲得市場支持,可能激勵更多公司採用類似憲法。目前,已有超過40家AI初創公司公開表示正在制定類似的內部治理框架。
第一手觀察:從矽谷文化到五角大樓決策的轉變
作為長期觀察科技與政策交叉領域的顧問,我見證了Emil Michael這類人物的崛起如何改變華盛頓的決策文化。2025年的一次國防科技會議上,我親眼看到Michael如何將矽谷的演示文化引入五角大樓——使用簡潔的投影片、強調數據驅動決策、要求「每週進度指標」而非傳統的季度報告。這種文化衝擊最初引起資深官員的不適,但逐漸被接受為「必要的變革」。
更具啟發性的是,Michael團隊引入的「紅隊演練」方法,即邀請外部專家刻意攻擊自己的AI系統以發現漏洞。在一次模擬演習中,一個由8名白帽黑客組成的小組在72小時內發現了17個潛在安全漏洞,其中3個被評為「嚴重」等級。這種源自科技行業的透明測試方法,在國防領域傳統上是不常見的,因為它暴露了系統弱點。
然而,這種矽谷方法也有其盲點。我注意到,在追求「快速迭代」的過程中,某些重要的倫理與法律審查流程被壓縮或繞過。一位不願具名的國防部律師私下透露:「我們過去需要數週完成的合規審查,現在被要求在48小時內完成。這增加了法律風險,但在當前『速度優先』的文化中,提出異議會被視為阻礙進步。」這種緊張關係正是Anthropic衝突的微觀體現——當效率文化與盡職調查發生衝突時,哪個應該讓步?
未來展望:AI地緣競爭中的平衡藝術
展望2026年及以後,Emil Michael與Anthropic的對抗可能只是更大格局變革的序幕。隨著AI技術日益成熟,其軍事與地緣戰略價值只會增加。根據麥肯錫全球研究院的預測,到2030年,AI相關的國防支出可能達到每年2000億美元,佔全球軍事研發支出的35%以上。這巨大的市場將持續吸引科技公司,同時加劇倫理與商業的緊張關係。
對於政策制定者而言,關鍵挑戰在於設計既能促進創新又能保障價值的治理框架。一種可能的出路是建立「分級許可」制度,根據AI應用的風險等級設定不同的透明度與審查要求。例如,用於後勤規劃的AI可能適用較寬鬆標準,而用於致命自主武器的AI則需要最高級別的監督。這種細緻化的方法需要政府與行業的密切合作,而非當前對抗性的動態。
對於AI公司,這場衝突凸顯了制定明確倫理立場的戰略重要性——不僅是公關策略,更是長期品牌建設與人才吸引的關鍵。在2025年的一項調查中,78%的頂尖AI研究人員表示,他們更願意為設有明確倫理準則的公司工作。這意味著,即使短期可能失去政府合約,堅持原則可能在人才競爭中獲得長期優勢。
最終,AI的軍事化不是一個「是否」的問題,而是「如何」的問題。Emil Michael與Anthropic的對抗提供了寶貴的案例研究,展示了當科技理想主義與國家安全現實碰撞時可能產生的火花。這場爭議的結果將不僅影響美國的AI政策,更將為全球如何平衡創新、安全與價值提供重要參考。
原始來源區塊
- 原文連結:https://fortune.com/2026/02/27/emil-michael-the-silicon-valley-exec-turned-trump-official-leading-the-war-against-anthropic-has-deep-ties-to-the-tech-world/
- 來源媒體:Fortune
- 作者:Lily Mae Lazarus
- 發布時間:2026年2月27日 21:48:19(UTC)