隨著人工智慧(AI)輔助程式碼開發日益普及,一種被稱為「隨性開發」(vibe coding)的模式,儘管能加速產品上市,卻也潛藏客戶資料外洩的嚴重資安風險,凸顯技術監管與人為審查的急迫性。科技媒體《Digital Journal》昨日(2026年4月11日)發布一篇報導,深入探討此現象。
「隨性開發」指的是AI模型能透過自然語言提示生成程式碼,過程中極少需要傳統工程師的參與,往往跳過資深開發者的審核、架構審查及預備環境測試。這種模式降低了軟體開發門檻,讓創業者能更快驗證產品概念,小型團隊也能輕鬆打造內部工具。
然而,問題並非AI生成程式碼本身品質不佳,而是程式碼表面運作正常與實際安全、可擴展及可維護之間的巨大落差,對於無法閱讀AI程式碼的人來說是難以察覺的。文章指出,「隨性開發」模式未能解決底層軟體開發的安全性問題,例如安全認證邏輯、可擴展的資料庫查詢、穩健的API整合或第三方依賴項的安全性處理。
報導強調,AI生成的程式碼已被證實可能產生多種漏洞,包括認證繞過、環境變數外洩、未經驗證的輸入以及權限配置不當的資料庫存取,因為AI模型優化的是依指令描述的功能,而非未明確定義的資安特性。當應用程式在這種模式下交付給客戶,一旦發生資料外洩,會形成嚴重的問責鴻溝,因為部署者可能缺乏足夠的技術理解。
面對此類風險,《Alive DevOps》的負責人Pablo Gerboles Parrilla指出:「AI不會取代良好的判斷力,只會放大它。那些對願景清晰、執行迅速的創業者,將把AI視為槓桿而非拐杖。」他進一步表示,速度並非指倉促行事,而是排除阻礙,將安全性融入開發流程而非事後補救。對於積極發展人工智慧的台灣而言,這無疑提供了重要的警示,強調AI開發過程中,客戶資料保護與技術監管不容忽視。
為避免「隨性開發」的風險,業界應採納與風險程度成正比的審查機制。這包括對認證與授權邏輯、用戶資料相關的資料庫架構設計、根據漏洞資料庫選擇依賴項,以及部屬配置(特別是機密管理與網路權限)進行人為審查。儘管AI輔助工具能有效處理重複性工作,將資深技術人力從例行任務中解放出來,使其專注於關鍵決策,但在涉及資安邏輯、複雜狀態管理、整合邊界錯誤處理以及與外部系統互動等不易察覺失敗模式的領域,AI程式碼生成仍需最謹慎的態度。企業在向客戶提供AI生成軟體時,應視為一種承諾,確保軟體符合其用途,任何資安漏洞或資料外洩都將破壞這份信任關係。