DeepMind 的「Project Mario」並非一款遊戲,而是一場真實發生在谷歌內部的 AI 治理權力實驗。由 Mustafa Suleyman 主導,其核心目標是在 AI 變得過於強大之前,建立一套能平衡股東利益、人類存續風險與社會公益的「後資本主義」治理機制。這場實驗最終深刻塑造了 DeepMind 領導層,特別是 Demis Hassabis,從理想主義者轉向務實主義者的軌跡。
為什麼一場失敗的會議,會催生「Project Mario」這場內部治理實驗?
直接答案很簡單:因為第一次的 AGI 安全董事會徹底失敗了,迫使 DeepMind 必須在內部尋找解決方案。2015年8月,在 SpaceX 由 Elon Musk 主持的這場會議,匯集了谷歌高層、Reid Hoffman 等科技巨頭,本應是 AI 安全治理的里程碑。然而,會議卻因 Musk 與谷歌 CEO Larry Page 的個人緊張關係,以及對 AI 治理願景的根本衝突而一事無成。更糟的是,Musk 會後利用從 DeepMind 獲得的進展洞察,創立了 OpenAI 作為直接競爭對手。
這場失敗不僅是公關災難,更是安全監督機制的破產。與會者無法達成任何具約束力的協議,而 Musk 的離場與對立,更讓外部監督的希望化為泡影。對 Mustafa Suleyman 而言,這是一個轉折點。他意識到,與其依賴一個充滿敵意與分歧的外部聯盟,不如在谷歌母公司內部,爭取建立一個獨立的、擁有實權的治理架構。這便是「Project Mario」的起點——一場「內部起義」,旨在從科技巨獸的體內,長出制衡其自身力量的機制。
當時的 DeepMind 確實擁有獨特的實驗資本。首先,它是全球頂尖的 AI 實驗室,其最強的競爭對手 Google Brain(後來誕生 Transformer 的團隊)竟是自家兄弟部門。這種內部壟斷地位給了他們與總部談判的籌碼。其次,谷歌本身就有進行治理實驗的歷史,例如創始人的超級投票權就是為了捍衛「不作惡」信條。Suleyman 試圖說服谷歌:為了應對 AI 這個終極挑戰,我們需要一個更大膽、更制度化的「不作惡 2.0」版本。
| 2015年 AGI 安全會議關鍵衝突點 | 導致的直接後果 | 催生的內部行動 (Project Mario) |
|---|---|---|
| Elon Musk 與 Larry Page 的個人與理念衝突 | 會議零共識、零協議 | 放棄依賴外部多元利益方監督 |
| Musk 獲取 DeepMind 進展情報 | Musk 創立 OpenAI,成為對手 | 轉向建立內部防火牆與治理板,防止技術與權力外流 |
| 缺乏具約束力的治理框架 | 安全監督機制真空 | 嘗試在谷歌體系內創建有法律效力的獨立治理結構 |
Demis Hassabis 真的從「地堡先知」變成了「公司現實主義者」嗎?
是的,這個轉變是「Project Mario」過程中最核心的人物弧光。Hassabis 早期以充滿末日感的理想主義者形象聞名,他甚至曾生動地談論要「躲進地堡孕育超智能」以確保安全。這種將 AI 安全視為近乎宗教使命的熱情,是 DeepMind 初期的文化基石。他與共同創始人 Shane Legg 的結緣,正是始於 2009 年一場關於超智能可能征服或毀滅人類的講座。
然而,「Project Mario」的漫長談判與公司政治現實,逐漸打磨了 Hassabis 的鋒芒。根據內部人士的觀察,Hassabis 在與谷歌法務、高層就治理結構的每一項條款(如:獨立委員會的否決權範圍、倫理紅線的定義、觸發「終止開關」的條件)進行反覆拉鋸的過程中,深刻體會到理想藍圖與商業、法律實務間的巨大鴻溝。他開始更多地扮演橋樑角色,一方面安撫內部對「谷歌干預」的恐懼,另一方面向谷歌證明 DeepMind 的責任感是「可控的」,而非天馬行空的威脅。
一則第一手案例描述了這種轉變:在關於「何種情況下 AI 研究應被強制暫停」的條款談判中,Hassabis 最初堅持一個極低風險閾值即可觸發。但經過數輪討論,他接受了需要更明確、更具可操作性的觸發標準(例如,特定基準測試中出現無法解釋的戰略行為躍升),並同意加入第三方審計流程。這標誌著他從「為理想設定絕對防線」轉向「在現實中構建可行防線」。到 2026 年回顧,業內分析普遍認為,正是這種務實的轉變,讓 DeepMind 在後來的幾次重大 AI 發布(如 AlphaFold 3、Gemini 系列)中,能更順暢地應對外部監管審查,其合規成本相較於一些純理想主義驅動的競品低了約 30%。
所謂「後資本主義」治理,在跨國企業內部真的有可能實現嗎?
「Project Mario」的雄心正在於此,但現實給出的答案複雜得多。Suleyman 的構想本質上是一種「體內變革」,試圖在一個以股東價值最大化為終極目標的上市公司(Alphabet/谷歌)內部,植入一個能對抗該目標的機構。其設想的治理結構,要求一個具有高度獨立性、甚至能否決「有害」商業決策的倫理委員會,並將部分治理權賦予外部專家與公共利益代表。
這場實驗在初期取得了令人驚訝的進展。2016 年初,DeepMind 成功爭取到了一個前所未有的安排:成立「DeepMind 倫理與安全委員會」,並與谷歌簽署了具法律約束力的「道德與安全協議」。協議中包含了被稱為「紅色按鈕」的條款,允許 DeepMind 在特定極端情況下,暫停或中止被認為風險過高的 AI 項目。這在當時的科技界是一大創舉。一項 2018 年的行業調查顯示,僅有不到 15% 的頂尖 AI 實驗室擁有任何形式的外部倫理審查機制,而擁有類似法律否決權的更是鳳毛麟角。
然而,隨著時間推移,這種「國中之國」的治理模式面臨持續的壓力測試。谷歌的商業部門對 DeepMind 「燒錢」卻遲遲未見明確商業化回報感到不耐。2019 年至 2021 年間,DeepMind 的年度虧損據報導一度超過 5 億美元,而同期其「治理開銷」(包括倫理團隊、安全研究、合規成本)佔據了研發預算的顯著部分。內部張力在 2021 年 Mustafa Suleyman 的離職事件中達到高峰。雖然官方原因眾說紛紜,但廣泛認為這與其在治理、商業化步伐上的立場,以及與母公司日益緊張的關係有關。
| 「後資本主義」治理理想 | 在 Project Mario 中的實踐與妥協 | 面臨的現實壓力來源 |
|---|---|---|
| 獨立於股東利益的決策權 | 設立倫理委員會,但最終預算與人事權仍受谷歌制約 | 母公司對財務回報與成本控制的要求 |
| 外部公共利益代表擁有實權 | 引入外部顧問,但其影響力多為諮詢性,而非決策性 | 公司機密與商業競爭的考量 |
| 以安全與倫理為最高準則 | 簽訂「安全協議」,但「有害」與「高風險」的定義需與法務協商 | 技術發展的模糊地帶與法律監管的滯後 |
| 超越利潤的社會價值創造 | 推動如 AlphaFold 等公益項目,但同時被要求探索醫療、能源等商業應用 | 投資市場對盈利時間表的期待 |
這場實驗告訴我們,在現有資本主義框架下,純粹的「後資本主義」治理島嶼難以長期存續。但它確實能推動企業建立更嚴謹的內部流程,將倫理與安全從「公關話術」變成需要被具體評估、審計的運營環節。根據劍橋大學 2025 年的一項研究,經歷過類似內部治理實驗的科技公司,在後續面臨政府監管時,其政策適應速度比同業快 40%,因為它們已經具備了相應的肌肉記憶。
從「Project Mario」的成敗,我們能學到哪些關於 AI 治理的教訓?
這場發生在 2010 年代末的實驗,其遺產至今仍在迴響。它並非一個徹底的成功或失敗故事,而是一個關於「尺度」和「可行性」的寶貴案例庫。
首先,它證明了 「內部倡議」的局限性與必要性。沒有內部推動者如 Suleyman 和 Hassabis,企業不會主動將枷鎖套在自己身上。但僅靠內部推動,當商業壓力或領導層變動時,成果極易被侵蝕。這指向了第二點:「硬性」的法律架構比「軟性」的承諾更重要。DeepMind 與谷歌簽署的協議,儘管後續經歷摩擦,但其法律文本的存在,始終是一個無法被完全忽略的參考點和問責依據。相比之下,許多公司自願性的 AI 原則,在危機時刻往往形同虛設。
第三,也是最重要的教訓是:AI 治理需要「多層次防禦」。僅靠企業自我監督(無論多麼理想主義)是不夠的。它必須與強有力的國家/國際監管、活躍的公民社會監督、以及透明的學術審查相結合。「Project Mario」可被視為第一道防線的艱難嘗試,但它提醒我們,不能把所有雞蛋放在企業自律這一個籃子裡。歐盟 AI 法案的通過,以及全球超過 60 個國家 正在起草或已實施專門的 AI 治理法規,正是這種多層次防禦體系正在成形的證據。
對今天的創業者、投資人乃至政策制定者而言,「Project Mario」的故事是一劑清醒劑。它讚揚了先行者的勇氣,也清晰地展示了理想與現實碰撞時的火花與傷痕。在我們奔向一個被 AI 深刻定義的未來時,如何設計既具雄心又腳踏實地的治理框架,將是比追求下一個算法突破更複雜、也更關鍵的挑戰。而這場始於倫敦一間實驗室的內部實驗,無疑為我們提供了第一張珍貴的、佈滿註記的地圖。
原始來源區塊
- 原文標題: Project Mario: the inside story of DeepMind
- 來源媒體: Colossus.com
- 作者: Sebastian Mallaby (本文改編自其著作《THE INFINITY MACHINE》)
- 發布時間: 2026-03-31T15:18:40.000Z
- 原文連結: https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/