AI網路戰升溫:防禦型AI迎擊關鍵基礎設施威脅
隨著人工智慧(AI)技術的快速發展,網路安全領域正進入「以火攻火」的新紀元。資安界正積極部署先進AI能力,以應對日益複雜且自動化的AI驅動型網路攻擊,特別是針對醫療保健、金融服務等關鍵基礎設施的威脅。
由Anthropic等頂尖科技與網路安全供應商組成的Project Glasswing聯盟,正運用Anthropic未發表的Mythos Preview AI模型,為防禦性網路安全提供前沿AI解決方案。此舉旨在搶在惡意行為者利用類似AI能力發動攻擊之前,強化對第一方與開源軟體的防護。據Anthropic指出,Mythos Preview模型已成功偵測到數千個關鍵且此前未知的安全漏洞,甚至包括潛藏數十年的作業系統與網路瀏覽器缺陷,目前該模型正以嚴格控管方式,部署至特定組織以保護全球重要的基礎軟體。
然而,AI在防禦端的實際成效仍面臨挑戰。Simbian Research Lab今日發布的網路防禦基準測試顯示,領先的大型語言模型(LLM)雖然擅長攻擊利用,但在自主偵測複雜攻擊鏈方面卻表現不佳,沒有任何受測模型達到及格分數。研究發現,防禦性AI任務在結構上比攻擊性任務更為艱難,因為防禦端需在嘈雜且不完整的證據中進行推論,且無法得知惡意事件的總數。儘管Anthropic旗下的Claude Opus 4.6在11個受測模型中表現最佳,其對MITRE攻擊策略的平均偵測率僅達46%,在「資源開發」方面最高達63%,但在「收集」類別則驟降至25%。相較於Google Gemini 3 Flash,Claude Opus 4.6的偵測旗標數是其三倍,但單次調查成本卻高出約100倍。包括GPT-5和Gemini 3.1 Pro在內的中價位模型,偵測率則僅約2%。研究人員強調,大型語言模型的原始推理能力只是安全解決方案的其中一環,要達到企業級精準度,模型仍需搭配提供組織背景、確定性檢索和結構化調查循環的「框架」(harness)。
事實上,AI已成為網路攻擊的利器。Anthropic曾報告首次無須大量人工干預的完全自動化網路攻擊,其鎖定科技公司、金融機構、製造業和政府機構,展現了多模態AI與自主代理AI結合,能獨立執行80%至90%的戰術操作,涵蓋偵察、漏洞發現、利用、橫向移動和資料外洩。《美國國家法律評論》指出,這類多模態AI攻擊已導致生物識別身分驗證(醫療保健和金融服務常用多重認證方式)的詐騙日益增加,透過深度偽造技術合成語音、臉部和行為數據。此外,美國聯邦調查局(FBI)統計,2025年有2.2萬起與AI相關的投訴,導致近9億美元的損失。2026年4月23日,美國科學和技術政策辦公室也已向行政部門主管發出備忘錄,警告外國實體正透過「工業規模的蓄意行動」攻擊美國前沿AI系統。
面對日益嚴峻的AI驅動威脅,組織應重新評估網路安全治理模型和資訊風險框架,以確保合規並有效應對衝擊。諸如健康保險便利和責任法案(HIPAA)、金融服務法現代化法案(GLBA)、健康資訊科技經濟及醫療衛生法案(HITECH Act)等現行法規,普遍要求組織須合理應對預期中的網路威脅。美國國家標準暨技術研究院(NIST)的網路安全框架2.0及AI風險管理框架,以及開放全球應用程式安全專案(OWASP)的Agentic AI和LLM Top 10框架等,都值得組織借鑒。企業領導層必須認知到,網路安全這場沒有終點的競賽已經開跑,積極導入AI防禦能力、更新風險框架並與具備資安意識的合作夥伴攜手,才能更好地應對AI威脅帶來的風險。