當 AI 開始提供答案:人類與法律如何留在決策鏈中?自主武器時代的人類控制與法律挑戰/李魚豪
李魚豪(亞太安全與戰略研究獨立工作室研究員 )
當人工智慧(AI)深度嵌入軍事決策鏈,戰場的倫理與法律界線,正快速變得模糊。以色列在加薩衝突中運用 AI 輔助目標篩選系統「薰衣草」與「福音」的相關報導,引發國際社會對 AI 參與軍事決策的爭議與討論。這不僅僅是武器精準度的問題,更核心的挑戰在於:在 AI 提供「最佳答案」的時代,人類與法律是否仍具備留在決定生死的決策鏈中的能力?
隨著各國軍隊加速導入 AI 輔助系統,演算法正實質參與情資過濾與目標篩選。在資訊量爆炸的戰場環境下,AI 的確能協助縮短反應時間。然而,當系統持續提供高度優化的決策建議時,人類是否仍保有質疑、修正甚至否決的能力,正成為現代戰爭中最危險的盲點。尤其當決策過程缺乏透明度,且可能導致大量平民傷亡時,人類對系統的依賴風險將更加明顯。
認知的陷阱:演算法時代的「橡皮圖章」與系統脆弱性
這種現象在認知科學中被稱做「自動化偏誤」。當決策者長期依賴系統建議,會逐漸降低主動判斷的警覺性,傾向直接接受演算法產出的結果。在高度壓力的軍事環境下,指揮官可能逐漸淪為系統的「橡皮圖章」,進而削弱原本應由人類承擔的戰場倫理判斷。
然而,我們必須體認到,演算法在處理統計規律時極為高效,但在面對戰場上的「邊緣案例」時卻極其脆弱。例如,據報導,以色列的「薰衣草」系統在辨識目標時,可能將非戰鬥人員誤判為武裝組織成員,導致大量平民傷亡。無論是複雜環境下的辨識誤差,或敵軍刻意偽裝的非典型目標,都可能讓 AI 產出荒謬且致命的錯誤判讀。
未來的指揮官不應只是被動接受系統建議,而需具備「有效人類控制」的能力,這意指必須在充分理解系統邏輯與極限的前提下,保有實質干預與中止系統行動的能力。然而,AI 對戰場的衝擊,恐怕不只是人類判斷力的問題。
法律的失焦:當人道法遇上高速演算法
誠如前述,AI 對戰場的衝擊不僅在於判斷力,更直接挑戰國際人道法的執行,尤其是在責任歸屬方面。長期以來,《日內瓦公約》的運作建立在人類辨識與克制的基礎之上。但當監視、追蹤與攻擊流程轉向自動化,法律的落實方式若仍停留在「人類視覺」時代,將產生法律落差,並使「責任鴻溝」問題更加明顯。當 AI 系統做出致命決策時,究竟是操作者、程式設計師、製造商,還是國家應負最終責任?
以醫療保護為例,《日內瓦公約》明令禁止攻擊醫療人員與載具。但對自主系統而言,一輛高速移動的輕型車輛,究竟是正在執行醫療後送,還是具備敵意的軍事目標?若系統讀不懂「紅十字」、「紅新月」或醫療電子訊號,「不得攻擊醫療單位」的法條便極可能在瞬間的自動化決策中失效。
實務建議:將國際法「內置」於系統治理架構
為確保法律在 AI 時代繼續運作,我們必須將其轉化為機器也能辨識與受監督的治理架構。對台灣而言,在發展軍事 AI 系統時,更應將國際法精神「內置」於系統設計之中。筆者認為,未來自主系統的開發需具備三層設計,並可作為我國政策參考:
其一,機器可讀的人道標記。系統必須內建辨識紅十字、紅新月、醫療訊號及搜救區域的能力。一旦偵測到疑似中立資產,應強制觸發禁止自主攻擊與人工審查機制。
其二,不可竄改的歸責紀錄鏈。系統的感測資料、判斷路徑與人類覆核紀錄皆需存證,確保戰後能進行法律追溯,防止AI被作為規避指揮責任的工具。
其三,戰場人道除衝突機制。透過中立機構建立醫療後送與搜救任務的即時通訊驗證,將人道法精神延伸為戰場上的自動化資訊交換。
亞太視野:對抗式 AI 與指揮官的道德損傷
對於台海與灰色地帶行動頻繁的區域而言,敵方可能透過「對抗式 AI」操弄我方演算法的辨識模型,例如透過資料投毒或模型攻擊,將軍艦偽裝成民用船隻。這意謂著,未來的競爭不只取決於火力,更取決於決策者的認知韌性。
此外,我們更需警覺決策權移轉後的心理代價。若決策過程過於黑箱,人類將被迫在資訊不透明下,為機器的錯誤背負沉重的「道德損傷」。因此,軍事教育訓練必須轉型,培養具備獨立懷疑精神,且能同時理解戰術、法律與資料科學的複合型指揮官。
在演算法節奏中守住人本的價值
當 AI 開始提供答案,我們真正該警覺的,或許不只是機器是否足夠強大,而是人類與法律是否仍有能力留在涉及武力使用的決策鏈之中。《日內瓦公約》沒有過時,過時的是我們以為規則只需寫在人類文件裡。在自主武器時代,人道法必須被設計進系統,並納入攻擊決策與紀錄流程之中,方能應對這場決策權流失的戰爭變革。未來戰場的競爭,最終仍取決於人類判斷力、制度韌性與對演算法的治理能力之間的平衡。(圖片翻攝示意圖)