商傳媒|何映辰/台北報導

企業界在導入人工智慧代理(AI Agent)應用時面臨重大阻礙,主因在於現有的身分治理系統難以因應非人為身分管理需求。思科(Cisco)總裁 Jeetu Patel 在 RSAC 2026 會議中指出,目前高達 85% 的企業正在試行 AI Agent 專案,但僅有 5% 成功進入實際生產環境,這其中 80 個百分點的落差,凸顯了嚴重的信任問題。

資安長(CISO)最關切的議題之一,便是哪些 AI Agent 能夠存取敏感系統,以及當 AI Agent 行為超出預期時,誰該負責。印亞新聞社(IANS Research)的調查顯示,多數企業即使對人類使用者,其基於角色存取控制(RBAC)的成熟度仍不足,而 AI Agent 的加入將使情況更加複雜化。IBM X-Force Threat Intelligence Index 2026 年度報告亦揭露,利用公共應用程式的攻擊增加了 44%,部分原因即為缺乏驗證控制與利用 AI 發現漏洞。

思科校園網路業務資深副總裁 Michael Dickman 接受《VentureBeat》採訪時,強調信任對於 AI Agent 部署的重要性,稱其為「首要條件」。他表示,傳統上先追求生產力再補強資安的做法,在 AI Agent 時代已不適用。當 AI Agent 自主更新病患病歷、調整網路配置或處理金融交易時,一旦身分遭入侵,其潛在的破壞範圍將急劇擴大。對此,迪克曼提出了建立信任的四大條件:

首先是安全授權,需明確定義 AI Agent 的權限,並確保人類對其行為負有清晰的問責機制。其次是文化準備度,他提到傳統的資安警報疲勞問題,在 AI Agent 能處理所有警報後,工作流程將徹底改變。第三是代幣經濟(token economics),意指每個 AI Agent 的行動都伴隨實際的運算成本,迪克曼建議採用混合架構,讓 AI Agent 負責推理,而傳統工具執行操作。最後是人類判斷力,AI 雖能輔助,但始終無法取代人類的專業判斷與靈活運用能力。

電機電子工程師學會(IEEE)資深會員 Kayne McGladrey 觀察到,許多組織預設直接複製人類使用者的檔案給 AI Agent,導致權限擴散從專案初期就已發生。Reputation 人工智慧副總裁 Carter Rees 指出,企業 AI 的重大漏洞在於存取控制機制失效,大型語言模型(LLM)的扁平授權架構未能尊重使用者權限。Cato Networks 威脅情報副總裁艾泰·毛爾(Etay Maor)也抱持相同看法,認為企業需建立「AI Agent 的人資視角」,涵蓋 AI Agent 的入職、監控與離職流程。

為解決這些挑戰,Dickman 提出五項建議:首先,立即推動跨部門合作,確保業務、IT 與資安領導階層對 AI Agent 的期望達成共識。其次,將身分與存取管理(IAM)及特權存取管理(PAM)的治理機制提升至能支援 AI Agent 工作負載的生產級水準。第三,採用平台化的網路基礎架構,促進跨領域數據共享與關聯分析。第四,從專案初期就設計混合式架構,結合 AI Agent 的智能與傳統軟體的效率。最後,在首批 AI Agent 應用案例中,務必落實基於角色存取控制、特權存取管理與微區隔(microsegmentation)等資安最佳實踐,以建立組織信任,加速後續的規模化部署。