
事件核心:一場撼動 AI 產業的憲法層級對決
2026 年 3 月 9 日,AI 公司 Anthropic——知名 AI 助手 Claude 的開發商——在加州聯邦法院正式提起訴訟,控告美國國防部(Department of Defense,訴訟文件中亦稱為「戰爭部」Department of War)及其部長 Pete Hegseth。爭議的導火線,是國防部將 Anthropic 標記為「供應鏈風險」(Supply Chain Risk)——一個通常用於針對敵對外國企業的工具——理由竟是該公司拒絕允許軍方在完全自主武器和大規模國內監控中使用其 AI 模型。
這不是一起普通的商業糾紛。這是一場在生成式 AI 時代,關於言論自由界限、政府採購權力邊界、以及私人企業能否為其技術設定「倫理紅線」的憲法級別對決。截至 2026 年 4 月,此案已分裂為兩個法院、兩條法定路徑的並行攻防,且兩地法院已做出截然不同的臨時裁決——這預示著此案極有可能最終抵達美國最高法院。
第一章:衝突的根源——合約談判如何導向全面決裂
1.1 倫理紅線 vs. 作戰主權:談判桌上的根本分歧
一切始於 2025 年底至 2026 年初,Anthropic 與美國國防部之間的商業合約談判。國防部希望將 Anthropic 的 Claude 模型整合進其多項業務流程——從後勤規劃、情報分析到更敏感的作戰決策支援。國防部提出的合約條款要求 Anthropic 同意「軍方可在所有合法用例中使用其 AI 模型」,也就是不附加任何應用場景限制。
然而,Anthropic 提出了一份反建議。該公司要求合約中必須白紙黑字地排除兩大類應用:完全自主武器系統(Lethal Autonomous Weapons Systems, LAWS) 與 大規模國內監控(Mass Domestic Surveillance)。Anthropic 的理由是,這些應用不僅違反了該公司自成立以來便遵循的「憲法式 AI」(Constitutional AI)核心倫理原則——試圖將 AI 對齊人類價值的制度內建於模型之中——更可能對人類安全與公民自由構成不可接受的威脅。
國防部的回應是強硬的。Pete Hegseth 部長在社群平台上的發言直接點出了核心矛盾:「Anthropic 的真實目的顯而易見:奪取對美國作戰決策的否決權。」對五角大廈而言,將任何特定應用的「否決權」交給一家民營企業,不僅是行政上的不便,更是對主權的挑戰。
1.2 從談判破裂到全面對抗
談判最終破裂。2026 年 2 月 27 日,白宮下令所有聯邦機構停止使用 Anthropic 的 AI 產品。隨後,國防部正式將 Anthropic 指定為「供應鏈風險」——這個標籤的致命性在於,它不僅切斷了與國防部的直接業務,更對所有聯邦承包商發出信號:不得與 Anthropic 有商業往來。
Anthropic 的選擇是以訴訟反擊。3 月 9 日,該公司在加州北區聯邦法院遞交訴狀,主張:
- 政府的指定行為侵犯了 Anthropic 受 第一修正案 保護的言論自由——該公司有權就其技術的應用發表立場與限制
- 在做出如此重大的指定前,政府未能提供充分的證據、聽證或申辯機會,違反了 第五修正案 的正當程序條款
- 該指定屬於 《行政程序法》 下的「恣意且反覆無常」的行為
| 爭議層面 | Anthropic 的主張 | 國防部的立場 | 法律依據衝突 |
|---|---|---|---|
| 合約使用限制 | 有權排除自主武器與大規模監控 | 軍方對所有合法用途應有最終決定權 | 商業合約自由 vs. 政府採購裁量權 |
| 供應鏈風險指定 | 違反正當程序,缺乏事先通知與聽證 | 基於國家安全判斷的行政裁量權 | 第五修正案正當程序 vs. 國家安全例外 |
| 言論自由 | 拒絕使用條款是受保護的言論 | 指定是基於供應鏈安全而非懲罰言論 | 第一修正案保護 vs. 政府採購附帶影響 |
第二章:雙線訴訟——一場從法律戰術到憲法原則的全面攻防
此案最具分析價值的特點,在於 Anthropic 的法律團隊採取了「雙線訴訟」策略——同時在兩個不同法院、依據兩部不同的法律,挑戰政府的指定行為。
2.1 加州戰線:Judge Rita Lin 的「歐威爾式」裁決
Anthropic 在加州北區聯邦法院(Northern District of California)提起的訴訟,挑戰的是國防部依據 10 U.S.C. § 3252 做出的供應鏈風險指定,以及總統行政命令與 Hegseth 指令。
2026 年 3 月 26 日,法官 Rita Lin 做出了一項震撼性的裁決:批准 Anthropic 的初步禁制令(Preliminary Injunction),暫時封鎖了國防部的黑名單措施。這意味著:
- 聯邦民事機構(非國防體系)可以繼續使用 Anthropic 產品
- Hegseth 禁止軍工承包商與 Anthropic 商業往來的指令被暫停
更關鍵的是 Judge Lin 的法律推理。她在裁決書中直言,政府的行為「很可能既是違法的,也是恣意且反覆無常的」,並且構成了「經典的第一修正案報復行為」。她甚至用「歐威爾式(Orwellian)」來形容政府的論點——主張一家美國公司可以因為不同意政府的立場而被標記為「敵對者」。這在美國憲法法理中是極為罕見的強烈措辭。
Lin 法官進一步發現了一個對政府極為不利的技術事實:Anthropic 在將模型交付給政府安全環境後,無法存取、修改或關閉已部署的模型。這直接削弱了政府將 Anthropic 指定為「持續風險」的論據基礎。
2.2 華盛頓戰線:DC 巡迴上訴法院的相反結果
與此同時,Anthropic 也在哥倫比亞特區巡迴上訴法院(D.C. Circuit Court of Appeals)提出了第二項法律挑戰,針對的是國防部依據另一部法律——41 U.S.C. § 4713(FASCSA)——做出的獨立指定。
2026 年 4 月 8 日,由三位法官(Henderson、Katsas、Rao)組成的審理小組做出了與加州法院截然不同的裁決:駁回 Anthropic 的暫停執行請求。
| 比較項目 | 加州北區聯邦法院 (N.D. Cal.) | DC 巡迴上訴法院 (D.C. Circuit) |
|---|---|---|
| 裁決日期 | 2026 年 3 月 26 日 | 2026 年 4 月 8 日 |
| 管轄法律 | 10 U.S.C. § 3252 | 41 U.S.C. § 4713 (FASCSA) |
| 核心結果 | 批准初步禁制令 | 駁回暫停執行請求 |
| 法律標準 | 實質勝訴可能性 | 利益平衡 |
| 關鍵發現 | 政府行為可能違憲,構成第一修正案報復 | 國家安全利益優先於商業損害 |
| 言論 | 用「歐威爾式」形容政府論點 | 承認 Anthropic 提出「實質挑戰」但不予立即救濟 |
DC 巡迴法院雖然駁回了 Anthropic 的請求,但其裁決並非全面否定。法院特別指出三項需要進一步審理的關鍵問題:
- 法院是否對此案具有管轄權
- 政府是否真的採取了「具體的採購行動」
- Anthropic 在交付模型後能否影響其運作——這正是加州法官認為對政府不利的事實基礎
法院同時批准了快速審理程序,口頭辯論定於 2026 年 5 月 19 日 舉行。
2.3 目前的訴訟版圖(2026 年 5 月)
「所有合法用例」] --> B[Anthropic 拒絕
提出倫理紅線條件] B --> C[談判破裂] C --> D[白宮下令
聯邦機構停用] D --> E[國防部指定
供應鏈風險] E --> F[Anthropic 提起訴訟] end subgraph "雙線訴訟策略" F --> G[加州北區聯邦法院
10 U.S.C. § 3252] F --> H[DC 巡迴上訴法院
41 U.S.C. § 4713 (FASCSA)] end subgraph "目前裁決" G --> I[Judge Lin 批准
初步禁制令 ✅] I --> I1[禁止總統行政命令] I --> I2[禁止 Hegseth 指令] I --> I3[§ 3252 指定暫停] H --> J[三位法官駁回
暫停執行請求 ❌] J --> J1[FASCSA 指定仍有效] J --> J2[國防部繼續
移除 Anthropic 產品] J --> J3[180 天撤離時程] end subgraph "下一步" I --> K[第九巡迴上訴法院審理中] J --> L[5/19 口頭辯論] K & L --> M[最高法院
可能於下半年合併審理] end
第三章:「供應鏈風險」指定——一件針對性極強的法律武器
3.1 什麼是供應鏈風險指定?
「供應鏈風險」指定是美國聯邦採購法中的一項行政工具,允許政府機構——特別是國防部門——將被認為對國家安全構成威脅的供應商排除在採購體系之外。雖然其字面適用範圍涵蓋所有供應商,但實務上主要用於針對外國企業,尤其是來自競爭對手的電信設備、網路安全和人工智慧等領域的產品。
關鍵區別在於,過去這項工具從未針對一家總部位於美國本土的 AI 公司使用。
| 風險等級 | 官方定義(簡化) | 過去典型對象 | 對供應商的商業影響 |
|---|---|---|---|
| 高風險 | 存在明確、現行且不可接受的國家安全威脅 | 華為、中興等外國電信設備商 | 禁止採購、列入實體清單,全球市場份額急遽萎縮 |
| 中等風險 | 存在潛在漏洞,需透過緩解措施管理 | Kaspersky 等外國軟體供應商 | 業務受限,需接受額外審查,無法參與敏感專案 |
| 低風險 | 風險可忽略或已透過標準流程控制 | 一般商業軟體供應商 | 正常業務往來,影響最小 |
3.2 對 Anthropic 的殺傷力評估
對 Anthropic 而言,這項指定的打擊是多重且深遠的:
第一層:直接收入損失。 美國聯邦政府是全球最大的單一 IT 採購者。根據 GovWin 的市場分析,2025 財年聯邦政府在 AI 相關技術的採購預算超過 350 億美元。被排除在這一市場之外,對任何想要達到規模化營收的 AI 公司都是重大打擊。
第二層:聲譽與信任損害。 在國家安全至上的政治氛圍下,被政府點名為「風險」供應商,等同於對商業信譽的致命打擊。潛在的商業客戶——尤其是金融、醫療、能源等受監管行業——可能因此在選擇 AI 供應商時避開 Anthropic。
第三層:連鎖國際效應。 美國的盟友——五眼聯盟成員國、北約夥伴、日本與韓國等——往往會根據美國的安全指定做出「對等」決定。這意味著 Anthropic 可能在全球多個主要市場同時面臨障礙。
3.3 國防部的擴張策略與 Anthropic 的邊緣化
值得注意的是,此案並非發生在真空中。在將 Anthropic 邊緣化的同時,國防部於 2026 年 4 月宣布與七家 AI 公司建立新的合作夥伴關係,用於驅動機密系統。這七家公司包括:SpaceX、OpenAI、Google、NVIDIA、Reflection、Microsoft 和 Amazon Web Services。這些合作夥伴的選擇發出了一個明確信號:在不附加倫理使用限制的前提下與政府合作,才是進入國防市場的門票。
第四章:憲法層級的角力——第一修正案能否保護 AI 模型?
4.1 AI 模型的輸出是「言論」嗎?
此案最核心的法律問題,或許也是整個美國 AI 監管討論中最根本的憲法問題:AI 模型的輸出是否構成受第一修正案保護的「言論」?
Anthropic 在訴狀中主張,其拒絕允許特定用途使用 Claude 模型,本身就是一種受保護的「表達性行為」。其律師團隊進一步論證,政府將此拒絕作為懲罰的依據,構成了典型的第一修正案報復——政府不能因為一家公司表達了與官方不同的立場,就對其施加制裁。
然而,學術界對此看法分歧。支持方認為,在 AI 生成內容已被廣泛視為創造性表達的時代,機械性地否定其言論屬性是不合時宜的。反對方則主張,AI 模型的輸出本質上是統計預測而非個人表達,第一修正案不應延伸至此。
Judge Lin 在加州法院的裁決,至少在初步階段支持了 Anthropic 的立場。她不僅承認了第一修正案主張的「實質勝訴可能性」,更以「歐威爾式」的措辭表達了對政府行為的深刻質疑。
4.2 採購權力的邊界在哪裡?
政府方面的核心論點是:這不是懲罰言論,而是聯邦採購管理——政府有權選擇與誰做生意,尤其是在涉及國家安全的領域。長期以來的判例也傾向於支持政府在採購決策上享有廣泛的裁量權。
但 Anthropic 的反擊策略很聰明:他們不挑戰政府「是否」可以選擇供應商,而是挑戰政府「如何」做出指定。他們主張,在做出如此嚴重的指定前,政府至少應提供:
- 具體的證據支持其風險評估
- 事先通知與申辯機會
- 明確的標準而非模糊的判斷
這使得訴訟的核心從「AI 倫理」轉向了「程序正義」——一個在法律上更具可操作性的戰場。
| 憲法議題 | Anthropic 的法律理論 | 政府的法律理論 | 目前法院傾向 |
|---|---|---|---|
| 第一修正案(言論自由) | 拒絕使用條款是表達立場,屬受保護言論;政府指定是報復行為 | 指定是採購管理決定,與言論內容無關 | 加州法院傾向原告;DC 法院未觸及實體問題 |
| 第五修正案(正當程序) | 重大處分前未提供通知、聽證或申辯機會 | 國家安全關切下,程序要求可被簡化 | 加州法院認為原告有實質勝訴可能性 |
| 行政程序法(APA) | 指定行為恣意且反覆無常 | 判斷屬於行政裁量範疇 | 加州法院認定政府行為「很可能違法」 |
第五章:對 AI 產業的深遠衝擊——五個不可忽視的連鎖效應
5.1 合約範本的全面分化
我們將見證 AI 產業的「合約大分化」。未來極可能出現兩大陣營:
- 國防合作型公司:願意接受政府無限制使用條款,以換取進入國防市場的門票。OpenAI 似乎已選擇這條路徑。
- 倫理優先型公司:堅持在合約中設定紅線,其市場將主要局限於民用領域。Anthropic 是此類公司的典型代表。
5.2 監管加速化——立法者必須行動
此案最大的政治影響,可能是促使國會加速通過專門的 AI 軍事應用法案。目前的混亂——部分因缺乏明確法律框架而起——讓行政部門與企業間的逐案博弈成為常態。一個更理想的制度安排是:由國會立法明確哪些 AI 軍事應用是被允許的、哪些需要審查、哪些應被禁止,而不是留給國防部的採購官員去決定。
5.3 投資者的風險評估模型重構
對創投與私募基金而言,AI 公司的估值模型必須加入一個全新的變量:政府關係風險。一家 AI 公司的技術能力再強,如果其倫理立場使其難以進入利潤豐厚的政府市場,其長期營收潛力將受到結構性限制。華爾街的 AI 分析師正在積極調整他們的估值框架。
5.4 人才市場的價值觀對齊
此案也將影響 AI 頂尖人才的職業選擇。對於將 AI 安全與倫理視為職業使命的研究員而言,傾向於回覆對他們說「不」的公司工作。反之,將服務國家安全視為最高優先級的人才,則會流向與國防部有深度合作的企業。這種人才的「選擇性對齊」將進一步固化 AI 產業的兩極分化。
5.5 全球監管的標竿效應
其他國家——尤其是歐盟、英國、日本——將密切關注此案的最終結果。歐盟《AI 法案》已經對「高風險」AI 系統實施嚴格的要求。如果美國法院最終支持 Anthropic 的立場,歐洲監管機構可能更有底氣要求美國科技巨頭在軍事應用上接受類似的倫理限制。
國防合作 vs 倫優先] A2[投資人風險評估重構
政府關係成為估值變數] end subgraph "中期影響(2026-2027)" B1[國會加速立法
明確軍事AI框架] B2[人才市場兩極化
價值觀驅動的職業選擇] end subgraph "長期深遠變化(2027+)" C1[全球監管標竿效應
歐盟、英國、日本跟進] C2[產業結構重組
倫理定位成為核心競爭力] end A1 --> B1 A2 --> B2 B1 --> C1 B2 --> C2 C1 --> C2
第六章:對 AI 開發者與企業用戶的實務建議
6.1 對 AI 公司:現在就應開始準備的幾件事
明確定義你的技術紅線:不要等政府來問你。現在就訂立清晰、可執行的倫理使用政策,並將其納入公司治理文件與投資人溝通模板中。
建立多層次的政府關係策略:不要將所有雞蛋放在一個籃子裡。與不同層級的政府機構(從地方到聯邦、從民用到國防)建立多元化的對話管道。
投資法律合規基礎建設:此類訴訟的律師費動輒數千萬美元。擁有一個強大的內部法務團隊與外部法律合作網絡,是必須的營運成本。
6.2 對企業用戶:供應鏈風險評估的新維度
對於使用 AI 技術的企業——特別是那些與政府有業務往來或身處受監管行業的公司——此案提供了一個重要的提醒:供應商的監管風險,就是你的風險。
| 評估維度 | 傳統考量 | 新增考量(後Anthropic時代) |
|---|---|---|
| 供應商穩定性 | 財務健康、技術能力 | 政府關係、倫理定位、被制裁風險 |
| 合規能力 | 認證、審計報告 | AI 治理框架、第三方風險管理 |
| 業務連續性 | 備援方案、SLA | 被排除在政府市場外的替代方案 |
| 聲譽風險 | 媒體報導、客戶評價 | 供應商的倫理立場是否與我方一致 |
6.3 對政策制定者:從此案中學習制度設計
此案暴露了當前 AI 監管體系的制度性缺陷。一個更完善的框架應包含:
- 立法先行:不要讓法院透過判例來形塑 AI 軍事應用的規則,國會應主動立法
- 透明程序:任何針對供應商的風險指定,應有明確的標準、證據要求和申訴機制
- 多利益方參與:AI 治理不應只是政府與企業間的雙向博弈,應納入公民社會、學術界和國際夥伴的聲音
結論:通往最高法院的道路
Anthropic 訴美國政府案,不僅是 2026 年最重要的科技訴訟,更可能是決定 AI 時代權力平衡的關鍵判例。從目前的發展來看,最可能的劇本是:此案最終抵達美國最高法院,由九位大法官來回答一個根本問題——在一個 AI 能力爆發式增長的時代,技術的倫理邊界應由誰、透過何種程序來劃定?
無論最終結果如何,此案已經深刻改變了 AI 產業的格局。它迫使每一位技術創辦人、投資者和政策制定者,都必須正視一個在過去被迴避的問題:當一項技術強大到足以同時服務於創造與毀滅時,我們需要的不只是更好的技術,更是更好的制度。
常見問題(FAQ)
Q1: Anthropic 到底告了誰?依據什麼法律?
Anthropic 在兩個不同法院提起訴訟。在加州聯邦法院,它控告國防部(戰爭部)依據 10 U.S.C. § 3252 做出的供應鏈風險指定;在 DC 巡迴上訴法院,挑戰的是依據 41 U.S.C. § 4713(FASCSA)做出的獨立指定。訴訟對象包括國防部長 Pete Hegseth。
Q2: 如果 Anthropic 輸了會有什麼後果?
如果 Anthropic 全面敗訴,將意味著政府可以合法地將拒絕設定倫理紅線的 AI 公司排除在採購體系之外。這將迫使其他 AI 公司必須在「接受政府所有要求」與「放棄政府市場」之間做出選擇,產業將出現嚴重的兩極分化。
Q3: 為什麼 Judge Lin 用「歐威爾式」來形容政府的論點?
因為政府的主張本質上是:一家公司不能因為不同意政府的立場而與政府有商業往來。在 Judge Lin 看來,這正是喬治歐威爾《1984》中描述的極權主義邏輯——政府將政治異議等同於安全威脅。這在法律意見中是極為罕見的強烈修辭。
Q4: 其他國家如何觀察此案?
歐盟、英國、日本、韓國等美國緊密盟友正在密切關注此案。如果美國法院最終支持 Anthropic 的倫理紅線主張,這些國家的監管機構可能更有底氣推動類似的 AI 軍事應用限制。反之,如果政府全面勝訴,可能在全球範圍內鼓勵各國政府對不對話的 AI 公司採取更強硬的手段。
Q5: 此案何時會有最終結果?
DC 巡迴上訴法院的口頭辯論定於 2026 年 5 月 19 日。裁決可能在數週至數月後做出。無論結果如何,幾乎肯定會有一方上訴至最高法院。如果最高法院決定受理,最終裁決可能要到 2027 年中期才會出爐。
參考資料
- 原文來源:PYMNTS.com. (2026). “Anthropic Sues US Government Over Supply Chain Risk Designation”. https://www.pymnts.com/legal/2026/anthropic-sues-us-government-over-supply-chain-risk-designation/
- 加州法院裁決報導:Courthouse News Service. (2026). “Pentagon blocked from labeling Anthropic as a ‘supply chain risk’”. https://courthousenews.com/pentagon-blocked-from-labeling-anthropic-as-a-supply-chain-risk/
- DC 巡迴法院裁決報導:The New York Times. (2026). “Federal Court Denies Anthropic’s Motion to Lift ‘Supply Chain Risk’ Label”. https://www.nytimes.com/2026/04/08/technology/anthropic-pentagon-risk-circuit-court.html
- 法律分析:Jones Walker LLP. (2026). “Two Courts, Two Postures: What the DC Circuit’s Stay Denial Means for the Anthropic-Pentagon Dispute”. https://www.joneswalker.com/en/insights/blogs/ai-law-blog/two-courts-two-postures-what-the-dc-circuits-stay-denial-means-for-the-anthrop.html
- 國防部合作夥伴報導:Dawn.com. (2026). “Pentagon expands AI partnerships, sidelines Anthropic”. https://www.dawn.com/news/1996808/pentagon-expands-ai-partnerships-sidelines-anthropic
- Bloomberg Law 分析:Bloomberg Law. (2026). “Anthropic Fails for Now to Halt US Label as a Supply-Chain Risk”. https://news.bloomberglaw.com/business-and-practice/anthropic-fails-for-now-to-halt-us-label-as-a-supply-chain-risk
- The Hill 報導:The Hill. (2026). “Appeals court rejects Anthropic’s bid to temporarily halt Pentagon designation”. https://thehill.com/policy/technology/5823132-appeals-court-rejects-anthropic-halt/
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!