Project Mario 完整解密:從理想主義地堡到務實權力遊戲——DeepMind AI 安全治理的十年沉浮錄

站主自己的課程,請大家支持
揭秘站長的架站心法:如何利用 Hugo × AI 打造高質感個人品牌網站? 揭秘站長的架站心法:如何利用 Hugo × AI 打造高質感個人品牌網站?
  • Post by
  • Mar 31, 2026
post-thumb

引言:一個關於理想、權力與妥協的 AI 治理史詩

「Project Mario」不是一款遊戲。它是 DeepMind 內部一場真實發生、代號為「Mario」的秘密治理實驗——一場由共同創辦人 Mustafa Suleyman 主導、Demis Hassabis 參與、旨在從谷歌體內為強大 AI 建立獨立治理結構的內部革命。

2026 年 3 月 31 日,哥倫比亞大學作家 Sebastian Mallaby 在新書《The Infinity Machine》中,透過大量內部訪談與文件,首次完整揭露了這場持續三年(2015-2018)的權力博弈。這本書向我們展示了一個令人不安的事實:即使是最具理想主義色彩的 AI 安全實驗,最終也難逃企業政治與商業現實的侵蝕。

本文將基於該書的揭露、後續發展以及 2025-2026 年 Google DeepMind 的治理現況,為您還原這場 AI 安全治理從理想主義到現實主義的完整軌跡。


第一章:一切的起點——那場失敗的 SpaceX 會議

1.1 2015 年 8 月:AGI 安全董事會的歷史性失敗

故事始於 2015 年 8 月。在 SpaceX 總部,由 Elon Musk 主持的一場高層會議召開,與會者包括谷歌高層(Larry Page、Sergey Brin)、DeepMind 團隊(Hassabis、Suleyman)、Reid Hoffman 以及其他科技領袖。這次會議的本意是建立一個正式的、外部監督的 AGI(通用人工智慧)安全董事會。

然而,會議從一開始就註定失敗。Musk 與 Page 之間存在深刻的個人緊張關係——他們對 AI 的未來有著根本不同的願景。Page 相信 AI 將是人類進步的巨大引擎,而 Musk 則對其潛在風險保持高度警惕。這場意識形態衝突使得整個議程陷入停滯。

更糟糕的是,會議不僅一無所成,還帶來了災難性的副作用:Musk 利用從 DeepMind 獲得的進展資訊,與 Sam Altman 共同創立了 OpenAI——一個直接與 DeepMind 競爭的 AI 實驗室。對 Suleyman 和 Hassabis 而言,這是一個決定性的轉折點。

1.2 從外部監督到內部革命

這場失敗讓 Suleyman 意識到一個殘酷的現實:依賴一個充滿敵意與分歧的外部聯盟來監督 AI 發展是不切實際的。與其在外圍推動監督架構,不如在谷歌母公司內部,爭取建立一個獨立的、擁有實權的治理結構。

這便是「Project Mario」的起點。項目的名稱本身具有多重象徵意義——Mario 是電玩遊戲中不斷突破關卡的英雄,而 Project Mario 正是要突破企業內部的體制障礙。

flowchart TD subgraph "2015: 外部監督嘗試" A[2015年8月
SpaceX AGI安全會議] --> B{Musk vs. Page
個人與理念衝突} B -->|衝突無法調和| C[會議零共識] B -->|Musk 獲取情報| D[Musk 創立 OpenAI] end subgraph "2015-2016: 內部革命起點" C --> E[Suleyman 決策轉向] D --> E E --> F[啟動 Project Mario
代號:內部獨立治理] end subgraph "2016-2019: 治理博弈" F --> G[與 Page 談判
起草獨立條款書] G --> H{2016年11月
Pichai 否決} H -->|Plan B| I[Global Interest Company
非營利公司方案] I --> J[Reid Hoffman
十億美元承諾] J --> K[2017年
Aviemore 災難
提前宣布] end subgraph "2019-2026: 理想終結" K --> L[Suleyman
被迫離開] L --> M[Hassabis
轉向現實主義] M --> N[2025-2026
軍事合約擁抱] N --> O[580員工聯署
反對國防合作] end

第二章:三場戰役——Project Mario 的核心博弈

2.1 第一戰:條款書之戰(2015-2016)

在 SpaceX 會議失敗後,Hassabis 與 Larry Page 進行了多輪談判,討論 DeepMind 的治理地位。到 2016 年夏季,談判取得了顯著進展:一份正式的條款書被起草,提出了一個被稱為「3-3-3 董事會」的結構——DeepMind 佔三席、Alphabet 佔三席、以及三席獨立的外部成員。

這個結構的設計意圖是創造一個「國中之國」,讓 DeepMind 在 Alphabet 體系內保有對其核心方向(特別是安全與倫理決策)的獨立控制權。對當時的 DeepMind 而言,這個結構不僅是治理安排,更是其安全研究的制度性保障。

2.2 第二戰:Pichai 的否決(2016 年 11 月)

2016 年 11 月,情況發生了決定性的轉折。谷歌新任 CEO Sundar Pichai 正式否決了 DeepMind 的獨立方案。Pichai 的論點非常直接:AI 對 Google 的核心產品——搜尋、雲端運算、廣告——具有「戰略中心性」,不能將如此重要的技術部門從母公司剝離。

這一否決標誌著 Project Mario 的第一場重大失敗。Suleyman 和 Hassabis 被迫啟動 B 方案。

2.3 第三戰:Global Interest Company 與十億美元承諾(2017)

B 方案更為大膽。Hassabis 和 Suleyman 秘密召集了一個由律師、公關策略師和投資銀行家組成的團隊,提出將 DeepMind 轉變為一個「全球利益公司」(Global Interest Company, 類似非營利組織中有限擔保的實體結構)的方案。

當時的 LinkedIn 共同創辦人 Reid Hoffman 在 2017 年 1 月的 Asilomar AI 安全會議上,做出了震撼性的承諾:他將個人出資高達 10 億美元——超過當時其個人淨資產的四分之一——以資助一個獨立、以公共利益為導向的 DeepMind。

然而,方案的執行過程出現了一個災難性失誤。2017 年 6 月,在蘇格蘭高地的 Aviemore 公司活動中,Suleyman 過早地向員工宣布了獨立計畫。十天後,谷歌回傳了一份被大量刪改的法律文件,全面拒絕了提案。Suleyman 的過早洩漏不僅摧毀了談判的信任基礎,最終也導致了他 2019 年被 DeepMind 驅逐——官方理由涉及霸凌指控,但業內普遍認為這與其在治理與商業化步伐上與母公司的緊張關係密切相關。


第三章:Hassabis 的轉變——從「地堡先知」到「公司現實主義者」

3.1 早期的 Hassabis:世界末日的預言者

Project Mario 中最引人深思的人物弧光,是 Demis Hassabis 從理想主義者到務實主義者的根本轉變。

早期的 Hassabis 以一種近乎救世主式的使命感聞名。他曾與共同創始人 Shane Legg 在 2009 年一場關於「超智能可能征服或毀滅人類」的講座上結緣。他甚至認真規劃過一個被稱為「地堡計畫」的方案:將頂尖研究員撤退到摩洛哥的秘密地點,像曼哈頓計畫那樣在封閉環境中孕育安全的人工超智能。

在 2014 年谷歌收購 DeepMind 的談判中,他成功爭取到了不尋常的條件:獨立監督機制、禁止軍事應用、以及限制谷歌對 DeepMind 的控制權。這些條款在當時的科技併購史上是前所未有的。

3.2 轉變的催化劑:Project Mario 的漫長磨難

然而,Project Mario 的漫長談判與企業政治現實,逐漸打磨了 Hassabis 的鋒芒。根據書中記載的內部人士觀察,Hassabis 在與谷歌法務、高層就治理結構的每一項條款——獨立委員會的否決權範圍、倫理紅線的定義、觸發「終止開關」的條件——進行反覆拉鋸的過程中,深刻體會到理想藍圖與商業、法律實務間的巨大鴻溝。

3.3 ChatGPT 的轉折點:「這是戰爭時期」

2022 年底,ChatGPT 的發布成為了 Hassabis 安全哲學的最終轉折點。他公開表示:「這是戰爭時期。」(This is wartime.)這句話不僅是對 AI 競賽加速的反應,更標誌著他安全思維的根本改變:

「安全不是關於治理結構。即使你有一個治理委員會,當關鍵時刻來臨時,它可能還是會做出錯誤的決定。」

Hassabis 的新策略更加務實:確保自己被放在「決策桌的核心」——透過個人影響力和在組織中的地位來影響安全決策,而不是依賴結構性的制度安排。他甚至直言,他的安全方案就是「我自己」(The safety plan is me)。

時期Hassabis 的安全哲學核心策略實際成果
2014 前(理想主義期)AI 安全透過獨立治理與外部監督來確保「地堡計畫」、獨立條款談判收購條款納入軍事禁止與獨立監督
2015-2019(Project Mario 期)在企業體系內爭取結構性獨立3-3-3 董事會、全球利益公司方案被 Pichai 否決;Aviemore 失誤導致計畫崩潰
2022 後(現實主義期)個人權力比制度保障更可靠確保決策桌席位、參與 AI 競賽推動 FSF 3.0 技術安全;放鬆軍事倫理限制

第四章:2025-2026——Project Mario 的遺產與當代呈現

4.1 技術安全框架的進步

值得肯定的是,即使理想主義的治理結構未能實現,DeepMind(現為 Google DeepMind)在技術安全層面仍然取得了實質進展。2025 年 9 月,Google DeepMind 發布了 Frontier Safety Framework (FSF) 3.0,引入了:

  • 有害操縱分類:針對具有強大操縱能力的 AI 模型設立新的臨界能力等級
  • 關機抵抗協議:處理拒絕被關閉或修改的 AI 系統的正式程序
  • 安全案例審查:擴展至大規模內部部署的人工智慧研發能力

4.2 倫理原則的倒退

然而,與技術安全的進步並行的,是倫理原則的重大倒退。2025 年,Google 修訂了其 AI 原則,刪除了先前禁止將 AI 用於武器開發和監控的承諾。新的評判標準——正如 DeepMind 副總裁 Tom Lue 所說——變成了:「利益的評估基準是,效益是否大幅超過風險。

面向2014-2020(理想期)2025-2026(現實期)意義
軍事應用政策合約明確禁止軍事用途贏得國防部 Gemini 部署合約從「絕不」到「可以——只要效益大於風險」
安全治理哲學依賴獨立委員會與外部監督依賴 FSF 技術框架與個人權力從結構性保障轉向技術性與個人化保障
與國防部關係拒絕合作2026 年成為七家國防 AI 夥伴之一直接對比 2014 年的收購承諾
內部員工動態理想主義研究文化主導580 員工聯署反對國防合作內部價值觀張力達到歷史高點

4.3 員工反抗的聲音

2026 年 4 月,超過 580 名 Google 員工簽署公開信,要求公司拒絕為美國國防部執行機密 AI 工作。令人玩味的是,這封公開信的主要組織者正是 Google DeepMind 的研究員——他們繼承了當年 Project Mario 的理想主義遺產,在體制內試圖影響公司的倫理方向。

這似乎形成了一個歷史的諷刺迴圈:曾經的內部革命者 Suleyman 和 Hassabis 已經轉向現實主義,而新一代的研究員成為了新的「理想主義反抗者」。


第五章:Project Mario 對當代 AI 治理的深刻教訓

5.1 教訓一:制度設計的脆弱性

Project Mario 證明,即使在最具理想主義色彩的組織中,結構性的治理保障也可能在商業壓力下被侵蝕。谷歌 2014 年收購時承諾的軍事禁止條款,到了 2025 年已被悄然廢棄。這印證了一個殘酷的事實:制度性協議的效力,最終取決於當事方的執行意願,而非條款文本本身。

5.2 教訓二:內部倡議的雙面刃

沒有像 Suleyman 和 Hassabis 這樣的內部推動者,企業不會主動將枷鎖套在自己身上。但內部倡議者同時也是最脆弱的——當領導層變動或商業優先級改變時,他們的成果可能在一夕之間被推翻。Suleyman 的被迫離開就是最好的例證。

5.3 教訓三:多層次防禦的必要性

防禦層級Project Mario 嘗試的機制為何未能持續更完善的替代方案
企業自我監管3-3-3 獨立董事會被 Pichai 否決、被商業壓力侵蝕將倫理條款納入公司章程(而非僅合約)
外部利益方監督獨立外部董事Suleyman 的過早宣布摧毀信任法定的公共監督委員會,而非自願設立
國家監管當時不存在針對性的 AI 法規監管發展落後於技術歐盟 AI 法案模式:強制性、分級管理
跨國治理未考慮全球 AI 治理架構剛開始成形OECD 框架、聯合國 AI 治理機構倡議

5.4 教訓四:從 DeepMind 到 OpenAI——治理委員會神話的破滅

書中直接將 Project Mario 與 OpenAI 2023 年的治理危機進行了平行比較。在 OpenAI,非營利董事會試圖解僱 Sam Altman 的決定,在短短數天內就被投資者壓力推翻。在 Hassabis 看來,這證明了他在 Project Mario 中學到的教訓:在關鍵時刻,治理委員會是不可靠的。 諷刺的是,OpenAI 最初正是以「非營利、以安全為先」的理想主義姿態成立的——它的治理崩潰,在本質上就是 DeepMind Project Mario 的「平行宇宙版本」。


第六章:對 AI 安全治理的未來展望

Project Mario 的故事告訴我們一個令人不安但必須正視的現實:AI 安全不僅是一個技術問題,更是一個權力問題。 無論是 DeepMind 的獨立治理嘗試、OpenAI 的治理危機,還是 Anthropic 目前的訴訟,都指向同一個核心矛盾:在 AI 能力快速超越人類預期的時代,現有的治理制度——無論是企業內部的還是政府層級的——都尚未準備好應對這個挑戰。

「我們需要一套全新的政治科學,來應對一種人類從未見過的技術力量。」 —— Sebastian Mallaby,《The Infinity Machine》結語

graph TD subgraph "經驗教訓" A[制度設計的脆弱性
商業壓力可侵蝕任何協議] --> D B[內部倡議的雙面刃
推動者可能隨時被移除] --> D C[治理委員會神話破滅
關鍵時刻不可靠] --> D end subgraph "未來治理框架的設計原則" D[多層次防禦
不可依賴單一機制] --> E[強制性監管
EU AI Act 模式] D --> F[獨立第三方審計
非自願性設立] D --> G[內部制度保障
章程層級不可撤銷] D --> H[跨國協調機制
OECD / 聯合國層級] end subgraph "關鍵指標" E --> I1[60+ 國家已起草 AI 法規] F --> I2[企業政策適應速度
提升 40%] G --> I3[經歷治理實驗的組織
合規準備度更高] H --> I4[全球 AI 治理協調
仍處於早期階段] end

對今天的創業者、投資人乃至政策制定者而言,Project Mario 的故事是一劑清醒劑。它讚揚了先行者的勇氣,也清晰地展示了理想與現實碰撞時的火花與傷痕。在我們奔向一個被 AI 深刻定義的未來時,如何設計既具雄心又腳踏實地的治理框架,將是比追求下一個算法突破更複雜、也更關鍵的挑戰。

這場始於倫敦一間實驗室的內部實驗,最終沒有創造出它所期望的獨立治理體系。但它留下了比任何治理結構都更珍貴的東西:一份關於理想如何在現實中妥協、以及為何妥協仍然不夠的,第一手地圖。


常見問題(FAQ)

Q1: Project Mario 是什麼?為什麼取這個名字?

Project Mario 是 DeepMind 內部從 2015 年啟動的一項秘密計畫,目標是在谷歌(Alphabet)體系內為 DeepMind 建立獨立於股東利益的治理結構。名字取自電玩角色 Mario,象徵「不斷突破關卡」——突破企業體制內的各項障礙。

Q2: Project Mario 最終成功了嗎?

沒有。該計畫在 2016 年被新任 Google CEO Sundar Pichai 否決,隨後的 B 方案(全球利益公司結構)因為 Suleyman 在 2017 年過早向員工宣布,導致谷歌全面拒絕。最終 Suleyman 在 2019 年被迫離開 DeepMind。

Q3: Demis Hassabis 的安全哲學發生了怎樣的變化?

Hassabis 從早期的「地堡先知」——主張在封閉環境中以獨立治理孕育安全 AI——轉變為現實主義者:認為個人決策權力比結構性制度更可靠。他曾說:「安全計畫就是我本人。」

Q4: Project Mario 與 OpenAI 的 2023 年治理危機有什麼關聯?

兩者呈現出驚人的平行結構。OpenAI 的非營利董事會試圖解僱 Sam Altman 但被投資者推翻,證明了治理委員會在關鍵時刻的脆弱性——這正是 Hassabis 在 Project Mario 中學到的核心教訓。

Q5: 這個故事對今天的 AI 政策制定者有什麼啟示?

最關鍵的教訓是:不能僅依賴企業自我監管——無論其創辦人多麼理想主義。有效的 AI 治理需要多層次防禦架構,包括強制性的國家監管、獨立的第三方審計,以及活躍的公民社會監督。


參考資料

  1. Mallaby 著作原文:Mallaby, S. (2026). “Project Mario: the inside story of DeepMind”. Colossus.com. 改編自《The Infinity Machine》。https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/
  2. Gigazine 報導:Gigazine. (2026). “What was the ‘Mario Project’ secretly pursued by Google subsidiary DeepMind?”. https://gigazine.net/gsc_news/en/20260403-google-deepmind-project-mario-agi-safety
  3. OfficeChai 報導:OfficeChai. (2026). “Google DeepMind Had Considered Breaking Away From Google Around 2016, Reveals New Book”. https://officechai.com/ai/google-deepmind-had-considered-breaking-away-from-google-around-2016-reveals-new-book/
  4. SiliconANGLE 報導:SiliconANGLE. (2025). “Google DeepMind expands frontier AI safety framework to counter manipulation and shutdown risks”. https://siliconangle.com/2025/09/22/google-deepmind-expands-frontier-ai-safety-framework-counter-manipulation-shutdown-risks/
  5. 580 員工聯署報導:金融界. (2026). “谷歌逾580名員工聯署公開信反對AI用於國防涉密任務”. https://finance.jrj.com.cn/2026/04/28100656913979.shtml
  6. The Times of India 報導:The Times of India. (2026). “As Google strengthens partnership with Pentagon, Google DeepMind VP Tom Lue ‘reminded’ employees at townhall”. https://timesofindia.indiatimes.com/technology/tech-news/as-google-strengthens-partnership-with-pentagon-google-deepmind-vp-tom-lue-reminded-employees-at-townhall-that-the-company-has-/articleshow/129776000.cms
  7. UBOS Tech 分析:UBOS Tech. (2026). “DeepMind AI Safety Governance: New Insights and Industry Impact”. https://ubos.tech/news/deepmind-ai-safety-governance-new-insights-and-industry-impact/
  8. The Blockbeats 報導:The Blockbeats. (2026). “Hasabis’ ‘Citadel Plan’: New Book Reveals How DeepMind’s Security Vision Crumbled”. https://en.theblockbeats.news/flash/338735
TAG