微軟勾勒自主AI安全戰略:推出全新Defender、Entra與Purview功能

站主自己的課程,請大家支持
揭秘站長的架站心法:如何利用 Hugo × AI 打造高質感個人品牌網站? 揭秘站長的架站心法:如何利用 Hugo × AI 打造高質感個人品牌網站?
  • Post by
  • Mar 22, 2026
post-thumb

微軟在2026年RSA大會前,發布了針對「自主人工智慧」時代的全面安全戰略。核心是將AI代理視為一個全新的、需要獨立防護的核心安全層,而非僅僅是另一個應用程式。為此,微軟推出了整合性的「Agent 365」控制平台,並強化其Defender、Entra和Purview產品線,旨在為企業提供從代理治理、身份保護、數據安全到端點防禦的端到端安全架構。


為什麼企業需要將AI代理視為「新的核心安全層」?

簡單來說,因為傳統的「應用程式安全」思維已經不夠用了。微軟認為,AI代理(Agent)具備自主執行任務、存取多系統資料並做出決策的能力,其行為模式、攻擊面和潛在風險已與傳統軟體截然不同。如果只把它當成一個普通App來保護,就像用圍欄保護一隻會飛、會挖洞且學習能力超強的動物一樣,漏洞百出。

AI代理的「自主性」正是風險倍增的根源。根據微軟內部威脅情報數據顯示,自2024年以來,涉及濫用或攻擊生成式AI模型的資安事件年增率高達300%。其中,約65% 的事件與AI代理的權限過大或行為不可預測直接相關。一個擁有過度存取權限的AI銷售代理,可能無意中將客戶個資洩露給未經授權的外部系統;一個負責程式碼優化的AI代理,若被注入惡意指令,可能成為供應鏈攻擊的起點。

因此,微軟提出的「核心安全層」概念,意味著企業必須建立專為AI代理設計的獨立安全框架。這個框架需要涵蓋:

  1. 代理治理:誰能創建、部署AI代理?它的任務邊界在哪?
  2. 身份與存取管理:如何驗證「是AI代理本人在操作」,並實施最小權限原則?
  3. 數據安全:如何防止AI代理在執行任務時過度分享或洩露敏感數據?
  4. 行為監控與威脅偵測:如何識別AI代理的異常或惡意行為?

這是一個從被動防禦轉向主動、適應性治理的典範轉移。企業安全團隊必須開始思考:我們的安全策略,跟得上AI的學習速度嗎?

微軟的「Agent 365」控制平台,究竟能解決什麼痛點?

一言以蔽之:解決「AI代理蔓延」所帶來的可見性與治理黑洞。隨著各部門紛紛部署AI代理來提升效率,IT和安全團隊往往對企業內有多少AI代理、它們在做什麼、擁有什麼權限一無所知。這種「影子AI」問題,是當前企業資安最大的盲點之一。

微軟將於2026年5月1日全面推出的「Microsoft Agent 365」,正是一個為了解決此問題而生的中央控制平面。它被定位為IT、安全和業務團隊的統一儀表板,主要提供三大核心價值:

  • 集中可見性:一覽無遺地看到所有企業內部署的AI代理資產。
  • 統一治理:從單一平台設定和管理所有AI代理的存取策略與合規規則。
  • 整合防護:無縫串接微軟既有的安全產品(如Defender, Entra),對AI代理實施保護。

讓我們用一個實際案例來說明其價值。想像一家跨國金融服務公司「寰宇金科」,其行銷部門未經IT批准,自行訂閱了一個第三方AI內容生成代理,用於快速產製社群媒體貼文。這個代理被授予了存取公司品牌素材庫和初步客戶分群數據的權限。

在沒有Agent 365的情況下,這個代理就是一個「影子AI」。安全團隊不知道它的存在,因此無法監控它是否將敏感的客戶資料用於模型訓練,也無法確保其生成內容符合金融法規。一旦這個第三方服務遭駭,公司的數據就可能外洩。

導入Agent 365後,情況截然不同。透過「Entra Internet Access Shadow AI Detection」功能,系統能在網路層自動偵測到這個未知的AI應用流量,並將其標記為「未受管理」。接著,安全團隊可以透過Agent 365的控制台,將這個代理「上架」納管,並立即套用預先設定好的治理策略:例如,禁止其存取含有個人識別資訊的客戶數據,並將其所有生成記錄導向Purview進行合規審查。如此一來,風險從「不可見」變為「可控」。

下表整理了Agent 365如何針對不同角色解決其核心痛點:

角色核心痛點Agent 365 提供的解決方案
CISO / 資安長缺乏對AI相關風險的整體視圖,合規壓力大。「Security Dashboard for AI」提供統一的AI風險儀表板,量化風險暴露程度。
IT管理員無法有效管理激增的AI代理資產與其生命週期。中央化的代理註冊、策略部署與權限審批工作流。
業務部門主管想快速採用AI提升效率,但又怕觸犯資安或合規紅線。提供合規的「AI代理應用商店」與預先審核的任務模板,加速安全部署。
合規與法務難以追蹤AI決策過程,無法滿足法規(如歐盟AI法案)的透明度要求。與Purview深度整合,自動記錄代理活動與數據存取日誌,生成合規報告。

在自主AI時代,身份管理面臨哪些前所未有的挑戰?

答案是:身份驗證的對象從「人」擴展到了「AI代理」,而傳統的「帳號密碼」或甚至多因素認證模式完全失靈。當一個AI代理試圖代表員工去存取CRM系統拉取客戶清單時,系統要如何確認「是這個AI代理本尊,而不是一個模仿它的惡意程式」?

這催生了對「機器身份」或「非人類身份」進行強健管理的迫切需求。微軟透過其Entra身份平台的一系列更新來應對這一挑戰,核心思路是「現代化驗證」與「強化韌性」。

首先,AI代理需要自己的、可管理的身份。微軟強化了Entra對服務主體和工作負載身份的管理能力,讓每個AI代理都能像員工一樣,擁有獨一無二的身份憑證和明確的權限邊界。這解決了「匿名」或「共用帳號」操作所帶來的問責問題。

其次,驗證機制必須進化。針對AI代理的驗證,可能結合:

  • 憑證管理:使用短生命週期的憑證或令牌。
  • 行為基線:建立代理的正常行為模式(如存取頻率、目標系統),任何偏差都可能觸發警報。
  • 鏈路證明:驗證該代理是否從經過授權的、安全的環境中啟動。

更關鍵的是「備援與恢復」能力。想像如果管理所有AI代理身份的Entra目錄本身出現問題,會導致多大混亂?為此,微軟推出了「Entra Backup and Recovery」預覽功能,能自動備份目錄物件,確保在災難發生時能快速恢復身份服務,維持AI代理運作的連續性。

此外,「Entra Tenant Governance」功能則旨在解決「影子IT」在雲端的延伸——「影子租戶」。企業各部門可能未經中央IT允許,自行開設了額外的Azure或Entra租戶來運行AI工作負載。此功能能幫助企業發現這些未受管理的租戶,並將其納入統一的治理策略下,防止安全策略出現缺口。

graph TD A[AI代理嘗試存取企業資源] --> B{身份驗證挑戰}; B --> C[挑戰1: 證明「它是誰」
非人類實體]; B --> D[挑戰2: 證明「它有權」
最小權限原則]; B --> E[挑戰3: 證明「它正常」
行為未受篡改]; C --> F[微軟Entra對策:
發放獨特機器身份]; D --> G[微軟Entra對策:
動態權限與條件式存取]; E --> H[微軟Entra對策:
持續行為驗證與信任評分]; F --> I[達成目標:
安全、可問責的AI代理存取]; G --> I; H --> I;

數據安全策略該如何調整,才能防止AI代理「說太多」?

關鍵在於實施「以數據為中心」的動態防護,並假設AI代理在執行任務時「預設會過度分享」。傳統的數據防洩漏方案多基於靜態規則(如:禁止寄送含有身分證字號的檔案),但AI代理可能透過自然語言對話,在不觸發關鍵字警報的情況下,拼湊並洩露敏感資訊。

微軟透過整合Purview數據治理與安全功能來應對。其策略核心是「內容理解」與「即時防護」的結合。Purview能夠自動對企業內的數據進行分類、貼標(例如:標記為「財務機密」、「個人資料」)。當AI代理(如Microsoft 365 Copilot)試圖處理一份文件時,Purview的保護策略會即時介入。

例如,一份標記為「併購機密」的簡報文件,即使AI代理有權存取,Purview可以設定策略,禁止AI代理直接引用文件中的具體數字或條款來回答使用者的問題,而是僅能提供基於公開資訊的概要分析。這就像是給AI代理配備了一位「合規副駕駛」,在它開口前先審查其答案是否恰當。

根據一項由微軟引用的第三方研究預估,到2027年,將有超過40% 的企業數據洩露事件與AI代理不當處理數據直接或間接相關。因此,主動的數據安全策略不再是選配,而是必備。微軟的方案強調在數據被存取、處理和輸出的各個環節嵌入安全控制,確保安全與合規要求能跟上AI代理的作業速度。

下表比較了傳統DLP與AI時代所需數據防護的差異:

維度傳統數據防洩漏AI時代的數據安全
防護對象人為操作(郵件、上傳、列印)。人為操作 + AI代理的自動化處理與輸出。
觸發機制依賴關鍵字、正則表達式、精確比對。結合語意理解、上下文分析、意圖判斷。
防護時機多在數據移動的「傳輸時」。延伸至數據被AI「處理時」與「生成時」。
策略邏輯「禁止」特定格式或內容流出。「控制」數據如何在對話與任務中被使用與揭示。
挑戰規則僵化,易誤報或繞過。需平衡安全與AI代理的實用性,技術複雜度高。

微軟的「安全基礎」戰略,如何為AI系統打造堅實的信任根基?

微軟將這場安全升級定義為一個更宏大的「安全基礎」戰略。其核心理念是:要保護好AI,必須先保護好AI所依賴的整個數位生態系統——包括基礎設施、身份、數據流和服務。這就像要確保一棵果樹健康,必須先確保土壤、水源和空氣的品質。

這個戰略具體體現在幾個層面:

  1. 基礎設施安全:透過Microsoft Defender for Cloud等工具,確保承載AI工作負載的雲端或地端伺服器其組態安全、漏洞已修補,並免受攻擊。
  2. 服務鏈安全:AI應用往往呼叫多個內部與外部API服務。安全團隊需要能映射這些服務依賴關係,並確保整個鏈路的安全。
  3. 持續的可見性:微軟強調「持續」二字。透過Security Dashboard for AI和Enhanced Intune App Inventory等工具,企業不僅要看到當下的AI使用狀況,更要能持續監控變化,發現新出現的風險模式。

這個「由底至上」的加固方法至關重要。根據微軟的《數位防禦報告》,99% 的成功入侵都利用了基礎安全衛生措施的缺失,如未修補的漏洞或多因素認證未開啟。在AI時代,這個基本原則依然不變,甚至更為關鍵。一個在脆弱基礎設施上運行的強大AI代理,只會成為攻擊者更美味的目標。

微軟將這些更新包裝進「Microsoft 365 E7: The Frontier Suite」中,與Copilot、Entra Suite和E5安全功能捆綁銷售。這傳遞出一個明確的市場訊號:頂級的AI生產力必須與頂級的安全性配套,而微軟意圖提供這「一站式」的解決方案。這不僅是產品策略,更是對未來企業IT架構的定義——AI與安全將深度融合,不可分割。

這波更新對企業與產業意味著什麼?我們該如何準備?

微軟這一系列發布,不僅是產品更新,更是一份送給整個產業的「自主AI安全路線圖」。它明確指出,AI安全的戰場已經從「保護模型不被投毒」前移到「管理代理的整個生命週期與行為」。對於企業而言,這意味著安全投資與思維必須立即升級。

首先,企業應開始盤點內部的「AI資產」。不僅是正式的AI項目,更包括各部門可能正在試用的各種生成式AI工具和自動化腳本。建立AI代理的註冊與審批流程,是邁向治理的第一步。

其次,重新審視身份與存取管理策略。IT團隊需要與業務部門合作,定義哪些任務適合由AI代理執行,並為這些代理創建最小權限的訪問策略。是時候將「非人類身份」納入IAM的日常管理範疇了。

最後,也是最重要的,是培養「AI安全素養」。安全團隊需要學習AI如何工作,而AI開發者與業務使用者也需要理解安全的基本原則。微軟這套工具提供了技術防線,但人的認知才是最終的防線。企業可以考慮啟動內部培訓,或尋求像我們這樣的顧問協助,制定符合自身需求的AI代理治理框架。

總的來說,微軟正在試圖為充滿不確定性的自主AI未來,鋪設一條相對可控的安全軌道。對於企業而言,與其被動等待威脅降臨,不如主動擁抱這些新工具與框架,將安全內建於AI轉型的每一步。畢竟,在AI加速奔跑的時代,安全不再是煞車,而是讓你能放心踩下油門的導航系統與安全氣囊。


原始來源區塊

  • 原文標題:Microsoft outlines agentic AI security strategy with new Defender, Entra and Purview capabilities
  • 來源媒體:SiliconANGLE News
  • 作者:Duncan Riley
  • 發布時間:2026-03-22T22:11:58.000Z
  • 原文連結:https://siliconangle.com/2026/03/22/microsoft-outlines-agentic-ai-security-strategy-new-defender-entra-purview-capabilities/
TAG