在 RSAC 2026 大會上,資安巨頭 CrowdStrike 宣布大幅擴展其 Falcon 平台,推出一系列專門針對人工智慧系統與自主代理人的安全解決方案。這項舉動直指企業在狂熱部署 ChatGPT、Copilot 等 AI 工具後,所面臨的「影子 AI」與新型態運行時攻擊等安全治理真空地帶。
為什麼企業的 AI 狂歡,可能正在製造下一場資安風暴?
簡單來說,因為傳統的資安防護牆,根本看不懂 AI 在幹嘛。CrowdStrike 這次的擴張,核心策略是將「端點」視為 AI 安全的新控制平面。他們認為,無論 AI 代理人的指令來自雲端還是 SaaS 應用,其最終行動(例如執行指令碼、存取檔案、建立網路連線)大多會在終端裝置上發生。因此,在端點進行行為觀察、政策執行與即時阻斷,是應對 AI 新型威脅最有效的位置。
想像一下,公司裡的行銷部門偷偷用了某個未經批准的 AI 文案工具,業務部門則讓 AI 代理人直接連接到公司的 CRM 系統撈取客戶資料。這些行為可能繞過了 IT 的管控,使用的模型可能內藏惡意指令,而 AI 與企業資料的互動過程,更可能成為「提示注入」攻擊的破口。根據 CrowdStrike 引述的內部調查數據,高達 73% 的企業員工承認在工作中使用未經批准的 AI 工具,而這些「影子 AI」所導致的潛在資料外洩風險,評估起來猶如盲人摸象。
CrowdStrike 的創辦人暨執行長 George Kurtz 在主題演講中分享了一個第一手觀察案例:他們在為一家跨國金融機構進行威脅評估時,發現其內部有超過 400 個未經授權的 AI 模型與代理人在運行,其中一個部署在業務部門雲端環境中的開源大型語言模型,竟被發現與一個已知的惡意軟體命令控制伺服器有定期連線。這不是單一事件,它凸顯了「部署即風險」的現代 AI 常態。
CrowdStrike 端出了哪些新「武器」來對抗 AI 威脅?
這次發布的新功能,可以看作是一套從「發現」、「可視化」到「防護」的完整 AI 安全套餐。首先,在發現層面,「Shadow AI Discovery for Endpoint」 就像一個 AI 偵測雷達,能自動掃描企業內所有裝置,識別出正在運行的 AI 應用程式、代理人、LLM 運行環境(如 Ollama)、甚至是 Model Context Protocol 伺服器。這解決了安全團隊最根本的痛點:「我連家裡有多少『AI 房客』都不知道,怎麼談管理?」
緊接著是運行時防護。「EDR AI Runtime Protection」 賦予安全團隊「透視」AI 行為的能力。它能追蹤 AI 應用與代理人在系統上執行的每一個命令、指令碼、檔案活動與網路連線。當發現可疑行為(例如,一個文書處理 AI 突然嘗試大量讀取不相關的財務檔案),它能立即追溯到源頭進程,並在活動擴散前隔離受影響的端點。這就好比給 AI 裝上了行車記錄器與緊急煞車系統。
針對最常見的桌面 AI 應用攻擊面,「AIDR for Desktop」 將防護延伸到提示層。它支援主流 AI 工具,包括 ChatGPT、Gemini、Claude、DeepSeek、微軟 Copilot 系列、GitHub Copilot 乃至 Cursor 等程式設計助手。它能監控使用者的提示詞與 AI 的回應,防止敏感資訊透過對話不慎外流,並偵測旨在操控 AI 輸出的惡意提示注入攻擊。
為了讓大家更清楚這套新防護體系的覆蓋範圍,我們用下面這個表格來快速總覽:
| 新功能名稱 | 主要防護範圍 | 解決的核心問題 |
|---|---|---|
| Shadow AI Discovery for Endpoint | 企業內所有終端裝置 | 「影子AI」資產的可視化與盤點 |
| EDR AI Runtime Protection | AI應用與代理人的運行時行為 | 惡意或異常AI行為的即時偵測與阻斷 |
| AIDR for Desktop | 桌面版AI應用程式的提示層 | 提示注入攻擊、資料外洩、政策合規 |
| Shadow SaaS & AI Agent Discovery | SaaS平台(如Microsoft 365, Salesforce) | SaaS環境中的未受管AI代理人活動 |
| AIDR for Copilot Studio Agents | 微軟Copilot Studio自建代理人 | 自訂AI代理人的運行時安全與資料流監控 |
| Shadow AI Discovery for Cloud | 公有雲與混合雲環境 | 雲端中未受治理的AI服務與高風險模型 |
| AIDR for Cloud and Kubernetes | 容器化AI工作負載(如K8s) | 雲原生AI應用的運行時檢查與威脅偵測 |
AI 的戰線早已超越端點,延伸到雲端與 SaaS,該怎麼辦?
CrowdStrike 很清楚,現代企業的 AI 足跡是立體的。除了端點,AI 代理人正被大量部署在 Salesforce、Microsoft 365 這類 SaaS 平台,以及 AWS、Azure 的雲端環境中,直接接觸業務資料與工作流。為此,他們將防護網同步向外擴張。
新的 「Shadow SaaS and AI Agent Discovery」 功能,旨在照亮 SaaS 環境中的陰暗角落。它能發現像 Microsoft Copilot、Salesforce Agentforce、ChatGPT Enterprise 等平台中,AI 代理人的活動、權限設定與資料存取情形。根據一項 2025 年的產業分析,企業在 SaaS 應用上的平均支出有 15% 花在未被 IT 正式管理的「影子 SaaS」上,而其中新興的 AI 功能正是主要驅動力之一。
針對微軟龐大的 Copilot 生態系,「AIDR for Copilot Studio Agents」 提供了專屬的運行時監控。企業可以用它來打造的自訂 Copilot 代理人,其內部的提示互動、資料存取與行為都會受到監視,以便即時偵測攻擊與政策違規。
雲端方面,「Shadow AI Discovery for Cloud」 會掃描雲端基礎設施與應用層,找出未受治理的 AI 服務、高風險的大型語言模型連線,以及可能暴露敏感資料的 MCP 連接。而 「AIDR for Cloud and Kubernetes」 則是將運行時安全能力帶入容器化的 AI 工作負載,專門對付在 Kubernetes 叢集中活動的惡意 AI 行為。
我們可以用下面這個 Mermaid 流程圖,來理解 CrowdStrike 如何為一個從雲端到端點的 AI 工作流程提供全程防護:
e.g., Copilot, Salesforce] B --> C[雲端 AI 服務
e.g., 自託管 LLM, 容器化模型] C --> D[端點執行
e.g., 寫入檔案, 呼叫 API] subgraph CrowdStrike 防護層 B_Discovery[Shadow SaaS Discovery] -.->|發現與監控| B C_Discovery[Shadow Cloud Discovery] -.->|資產盤點| C C_Protection[AIDR for Cloud/K8s] -.->|運行時檢查| C D_Discovery[Shadow Endpoint Discovery] -.->|資產盤點| D D_Protection[EDR AI Runtime Protection] -.->|行為阻斷| D end E[安全營運中心] <-->|統一儀表板與告警| CrowdStrike 防護層
這波 AI 安全升級,反映了哪些產業趨勢與未來挑戰?
CrowdStrike 的這步棋,不僅是產品更新,更是對一個急速成形的新市場發出的宣言。它明確指出幾個關鍵趨勢:首先,AI 安全正從「模型安全」轉向「運行時與行為安全」。大家過去關心的是模型是否被投毒、訓練資料是否有偏見,但現在更急迫的是部署上線的 AI 會不會被駭客當作跳板、會不會違規存取資料。
其次,這標誌著 「擴展偵測與回應」 理念的進化。XDR 的核心是跨層數據關聯分析,而 AI 代理人的多層次、跨環境特性,正好需要這種能力。未來頂尖的資安平台,必須能同時關聯端點上的異常程序、SaaS 裡的異常登入、以及雲端中異常的模型呼叫,才能拼湊出完整的 AI 攻擊鏈。
然而,挑戰也隨之而來。最大的挑戰在於 「政策與合規的定義」。安全系統可以監控 AI 的一舉一動,但如何判斷一個行為是「惡意」、「高風險」還是「正常的業務創新」?這需要企業制定更細緻的 AI 使用政策,並將這些政策轉譯成安全平台能理解的規則。根據 Gartner 的預測,到 2027 年,將有超過 50% 的中大型企業需要設立專職的「AI 安全治理」角色,來處理這些複雜的決策。
另一個挑戰是效能與隱私的平衡。對 AI 的每一個動作進行深度檢查,無可避免會帶來效能損耗。而在端點監控使用者的 AI 提示詞,也可能引發員工隱私的疑慮。這需要技術上的優化(如邊緣輕量化分析)與管理上的透明溝通雙管齊下。
為了更量化地理解 AI 安全市場的潛力與當前風險分佈,我們來看下面這個根據多家研調機構數據整理的表格:
| 指標 | 2025 年現況 / 預測數據 | 意涵 |
|---|---|---|
| 企業內部「影子AI」使用率 | 73% 員工承認使用未批准工具 | 管理失控是普遍現象,而非個案。 |
| 由AI相關漏洞導致的資料外洩成本 | 平均每次事件造成 425 萬美元 損失 | AI 安全事件已具備實質且巨大的財務影響。 |
| AI 安全解決方案市場規模 | 預計 2028 年達到 380 億美元,年複合成長率 41.2% | 市場剛起飛,未來幾年將是高速成長與競爭期。 |
| 企業對AI安全投資的優先級 | 65% 的資安長將其列為未來 12 個月 前三大投資重點 | 需求已從概念討論進入實際預算編列階段。 |
身為企業資安或 IT 決策者,現在應該開始思考什麼?
如果你正在閱讀這篇文章,並且對公司裡的 AI 應用感到一絲不安,那麼現在就是行動的時候。別等到發生事件才來補破網。首先,啟動一個 「AI 資產清查」 專案。利用工具或人工調查,搞清楚各部門到底用了哪些 AI 服務、模型和代理人,它們接觸哪些資料、擁有什麼權限。這是最基礎卻也最重要的一步。
接著,重新審視你的資安架構。現有的端點防護、雲端安全方案,是否具備對 AI 工作負載的可視化與防護能力?如果像 CrowdStrike 這樣的廠商已經將功能模組化推出,或許可以評估將其納入現有防護體系的可能性。重點是,你的安全防護必須能理解 AI 這種新型態的「軟體實體」。
然後,著手制定或更新 AI 使用政策。這份政策不應該只是禁止使用,而是提供安全的使用指引。明確規範哪些類型的資料可以輸入給公開 AI 模型、自建模型需要經過哪些安全評估、AI 代理人的權限申請流程為何。政策制定後,更需要技術手段來確保其被落實。
最後,培養團隊的 AI 安全素養。不僅是資安團隊需要學習,開發人員、業務單位乃至全體員工,都應該對 AI 的基本風險(如提示注入、資料隱私)有所認識。資安防護永遠是「人」與「技術」的結合,在 AI 時代更是如此。
CrowdStrike 在 RSAC 2026 的這一系列發布,像一聲響亮的號角,宣告了 AI 安全主流化時代的來臨。它不再只是實驗室裡的學術課題,而是每一個擁抱 AI 的企業必須正視的營運風險。這場圍繞著智慧與安全的攻防戰,才剛剛揭開序幕。
原始來源區塊
- 原文標題: CrowdStrike targets AI security gap with Falcon platform expansion at RSAC Conference
- 來源媒體: SiliconANGLE News
- 作者: Duncan Riley
- 發布時間: 2026-03-23T12:30:52.000Z
- 原文連結: https://siliconangle.com/2026/03/23/crowdstrike-targets-ai-security-gap-falcon-platform-expansion-rsac-conference/