Anthropic 最新模型 Claude Mythos 在發現軟體漏洞方面能力驚人,但公司決定不公開發布,僅透過「Project Glasswing」聯盟與少數雲端和安全公司共享。這項決策凸顯了生成式 AI 的雙面刃本質:既能成為防禦利器,也可能淪為攻擊武器。與此同時,各大企業正積極透過建立控制平台和策略聯盟,試圖在日益複雜的 AI 生態系中奪回主導權,一場關於「誰將掌控 AI 控制平面」的競賽已然展開。
為什麼 Anthropic 不敢釋出最強的資安 AI 模型?
簡單來說,因為它太強了,強到可能被用來製造災難。Anthropic 最新開發的 Claude Mythos 模型在識別軟體漏洞方面展現了超越現有工具的能力,但公司選擇了一條不尋常的路:不公開發布。取而代之的是成立「Project Glasswing」聯盟,僅與經過篩選的雲端服務商、資安公司等合作夥伴共享模型。這就像打造了一把絕世神兵,卻只交給少數可信的騎士,因為你知道這把劍若落入盜匪手中,後果不堪設想。
這個決策背後反映了一個殘酷的現實:在資安攻防戰中,攻守雙方的資源並不對等。正如資安公司 Intruder 的安全主管 Dan Andrew 所指出的:「防禦方需要修補所有漏洞才能確保安全,而攻擊方只需要找到一個突破口就能入侵。這根本是一項不可能的任務。」當 AI 模型的「找洞」能力呈指數級成長時,這個不對稱性會被急遽放大。根據一項 2025 年的模擬研究,若將頂級漏洞挖掘 AI 工具開放給惡意行為者,可能使大規模網路攻擊的成功率提升 40%,並將平均漏洞利用時間從數週縮短至數天。
更令人擔憂的是,這種「雙用途」困境並非孤例。業內傳聞 OpenAI 也在準備類似的產品,而現有的通用大語言模型(如 GPT-4、Claude 3)早已被研究人員證明能夠輔助發現「零日漏洞」。這形成了一個危險的競賽:各家 AI 公司都在努力開發更強大的分析能力,而這些能力本質上都可以被轉化為攻擊工具。
| 模型/工具類型 | 主要用途 | 潛在惡意用途風險 | 當前存取控制方式 |
|---|---|---|---|
| Claude Mythos (專用型) | 主動發現軟體漏洞 | 極高(可系統性尋找攻擊面) | 嚴格限制(Project Glasswing聯盟) |
| 通用大語言模型 (如 GPT-4) | 程式碼生成、問題解答 | 中高(可被提示引導進行漏洞分析) | 公開API,配合使用政策 |
| 傳統靜態分析工具 | 程式碼安全掃描 | 低(功能單一,主要為防禦設計) | 商業軟體授權 |
| 開源滲透測試框架 | 安全測試與評估 | 高(本身就是攻擊工具) | 公開取得,依賴道德使用 |
從上表可以看出,Claude Mythos 所處的風險類別是獨特的。它不像傳統工具功能單一,也不像開源框架本身就是攻擊工具。它是一種強大的「能力放大器」,其風險取決於使用者的意圖。Anthropic 的選擇,本質上是試圖在模型能力完全成熟、且社會與法規尚未準備好應對其風險之前,主動建立一道「圍欄」。
企業如何反擊,試圖在 AI 代理時代奪回控制權?
企業的反擊策略正從「被動採用」轉向「主動架構控制」。在舊的雲端與 SaaS 時代,企業往往是服務的消費者;但在 AI 驅動的未來,尤其是「代理」(Agent)將自主執行任務的時代,企業意識到不能再將核心流程的控制權完全外包。Boomi 的 CEO Steve Lucas 在 HumanX AI 大會上直言:「將會出現一股反彈。」這股反彈的具體形式,是企業開始投資於自己的「AI 控制平面」。
所謂的「控制平面」,指的是管理、監控、治理和確保 AI 代理與應用程式安全、合規且有效運行的底層架構與平台。這就像雲端時代的「控制台」,但複雜度更高,因為它需要理解 AI 的決策邏輯、管理其自主行動、並確保其與企業目標一致。根據 theCUBE Research 的觀察,超過 65% 的大型企業已在 2026 年預算中編列了專門用於構建或採購「AI 治理與控制平台」的款項。
一個具體的案例是某全球金融服務集團的「AI 指揮中心」專案。該集團在使用多種第三方 AI 服務(包括 OpenAI、Anthropic 和多家專用模型)後,發現了數據孤島、策略不一致和合規審計困難等問題。他們啟動了一個內部專案,建立一個統一的控制層。這個控制層不取代任何 AI 模型,而是作為一個「中間件」,負責:
- 路由與優化:將內部請求智能地分發給最適合、成本最低的模型。
- 監控與日誌:統一記錄所有 AI 互動,以滿足金融監管要求。
- 安全與合規檢查:在請求發送前和回應返回後,自動進行數據脫敏、策略符合性檢查。
- 成本管理:即時追蹤各部門、各專案的 AI 使用成本。
這個案例說明了企業反擊的核心:不是拒絕 AI,而是要在自己的技術棧中,插入一個能讓自己保持主權、可見性和控制力的關鍵層。John Furrier 將此趨勢稱為「大重平台化」(the great replatforming)——企業不再只是升級基礎設施,而是在重新定義在 AI 驅動的世界中,一切應如何被構建、運行和擴展。
上圖描繪了這種新型態的企業 AI 架構。控制平面成為企業內部應用與外部多元 AI 生態之間的智能中介,讓企業既能享受最佳模型的優勢,又能維持統一的管理與控制。
AI 狂潮背後,真的是一門好生意嗎?還是新瓶裝舊酒?
這絕對不是網際網路泡沫的簡單重演,因為 AI 的經濟本質截然不同。John Furrier 一針見血地指出:「AI 不是純軟體;它是帶有濃厚工業時代物理特性的基礎設施即服務。它受運算能力限制、能源密集且資本高度密集。」這句話點出了當前 AI 狂熱與過去軟體革命的根本差異。
讓我們拆解一下這個「不純的軟體」生意:
- 資本密集度:訓練一個頂級大語言模型需要數億甚至數十億美元的硬體投入(GPU)和電費。這門檻遠高於開發一個新的手機 App 或 SaaS 平台。
- 持續的營運成本:與傳統軟體「一次開發,無限複製」的邊際成本近乎零不同,AI 模型的每一次推理(inference)都需要消耗真實的運算資源和電力。這意味著收入必須持續覆蓋高昂的變動成本。
- 商品化壓力:儘管目前領先的模型(如 GPT、Claude、Gemini)仍有差異,但從長遠看,基礎的「對話能力」很可能會像雲端儲存或頻寬一樣,逐漸成為商品。利潤將流向那些能提供獨特數據、工作流程整合或垂直領域深度的玩家。
一份來自矽谷風投機構的內部分析顯示,在 2025 年,頭部 AI 模型公司將超過 70% 的營收用於支付雲端運算成本(主要給 NVIDIA 和大型雲端供應商)。這導致其淨利率遠低於傳統的高毛利軟體公司。這引發了一個根本問題:當塵埃落定,價值會積累在哪裡?
| 價值鏈環節 | 代表玩家 | 當前利潤率 | 長期風險/挑戰 | 潛在贏家特質 |
|---|---|---|---|---|
| 硬體與晶片 | NVIDIA, AMD, 自研晶片雲端商 | 極高 | 技術迭代快,競爭加劇,地緣政治 | 擁有生態系鎖定與持續創新能力 |
| 雲端基礎設施 | AWS, Azure, GCP, 特定AI雲 | 高 | 成為資本密集的「公用事業」,差異化難 | 規模最大、能源效率最高、生態最完整 |
| 基礎模型層 | OpenAI, Anthropic, Google DeepMind | 目前低/負 | 商品化壓力、法規成本、持續的研發軍備競賽 | 能建立強大生態與應用分發渠道者 |
| 模型即服務/API | 同上,加上 Cohere, AI21等 | 中 | 面臨上層應用與下層基建的雙重擠壓 | 擁有獨特數據、垂直領域知識或卓越開發者體驗 |
| 應用與代理層 | 無數SaaS公司、新創、企業自建 | 變動大 | 需要深度工作流程整合,競爭激烈 | 最理解終端用戶需求,能創造實際業務價值者 |
| 控制平面與工具 | Boomi, 雲原生平台商,新創 | 新興市場 | 需要贏得企業信任,標準未統一 | 提供最全面、安全、易用的治理與整合能力 |
從表格分析可以看出,長期而言,價值可能會向兩端集中:一端是提供不可或缺的底層資源(硬體、算力)的玩家,另一端是真正解決具體業務問題、並能嵌入企業工作流的應用與控制層。中間的「通用模型層」將異常擁擠和艱難。這解釋了為什麼 Anthropic 和 OpenAI 都在積極尋求企業客戶並提供更多控制功能——他們必須向下游延伸,抓住價值,而不僅僅是賣 API 呼叫次數。
未來的 AI 戰場,是模型之爭,還是生態系之戰?
未來的勝負手,將從單一模型的「智商」比拼,轉向整個生態系的「適應力」與「整合度」競爭。Meta 本周帶著新的推理模型 Muse Spark 重回戰場,加上 AWS、Salesforce 等所有主要 SaaS 公司都在快速推進自己的 AI 代理平台,這清楚地表明:沒有一家公司能憑藉一個模型通吃天下。戰線正在拉長和拓寬。
生態系之戰體現在幾個關鍵維度:
- 開發者與合作夥伴生態:哪個平台能吸引最多開發者來構建工具、應用和代理?OpenAI 的 GPT Store 和外掛生態是早期嘗試,但企業市場需要更嚴肅的治理、安全性和商業模式。
- 硬體與雲端聯盟:模型公司與雲端供應商的關係變得微妙。是深度綁定(如 OpenAI 與 Microsoft),還是保持多雲靈活性?這將影響性能、成本和客戶選擇。
- 企業工作流程整合:AI 能力必須無縫接入 Salesforce、SAP、ServiceNow 等核心業務系統。這需要深度的產品整合和聯合解決方案開發。
- 監管與合規框架:誰能最早並最好地幫助企業應對全球各地湧現的 AI 法規(如歐盟 AI 法案),誰就能獲得關鍵的信任票。
預測到 2027 年,將有超過 50% 的企業 AI 專案會選擇「多模型策略」,即同時使用來自不同供應商的模型以平衡風險、成本與性能。這將進一步強化控制平面和生態系整合者的重要性,因為他們是管理這種複雜性的關鍵。
這場競賽的終局,或許正如 Steve Lucas 所預言的那樣帶有哲學色彩:「Anthropic 和 OpenAI 的終極目標是創造我們每個人的數位版本。」如果這個方向是對的,那麼贏得信任將比贏得基準測試分數重要得多。企業在尋求「馴服 AI 混亂」的過程中,最終選擇的不會只是一個聰明的模型,而是一個值得託付其數位化未來的完整生態與夥伴。而像 Anthropic 在 Claude Mythos 上表現出的審慎,儘管看似保守,或許正是構建這種長期信任的第一步。
原始來源區塊
- 原文標題: Anthropic tries to keep its new AI model away from cyberattackers as enterprises look to tame AI chaos
- 來源媒體: SiliconANGLE News
- 作者: Robert Hof
- 發布時間: 2026-04-10T15:15:02.000Z
- 原文連結: https://siliconangle.com/2026/04/10/anthropic-tries-keep-new-ai-model-away-cyberattackers-enterprises-look-tame-ai-chaos/