李魚豪(亞太安全與戰略研究獨立工作室)

如果未來的戰場上,攻擊的決定不是由人下達,而是由人工智慧或自主系統自行判斷,那國際法是否能約束武裝衝突?

這個問題,過去聽起來像科幻。但在今天的戰場上,已經逐漸變成現實。無人載具在電子干擾下失去控制後,依靠搭載 AI 或內建程式繼續執行任務;各國軍隊開始測試能夠自行搜尋與攻擊目標的系統。近來有戰略分析即指出,未來戰場的關鍵轉變,正是將決策前移,在任務開始前便將行動邏輯寫入系統之中。戰爭的步調,正從人類決策轉向機器反應。

問題在於,現行的國際法體系,幾乎完全建立在人類「能夠控制武力」這個前提之上。無論是國際人道法中的區分原則(區別戰鬥員與平民)、比例原則(避免過度附帶損害),還是國家責任體系對於行為歸屬的認定,法律都假設有人在當下做出選擇,並為這個選擇負責。

但當這個「人」逐漸退到戰場之外,只在任務開始前設定條件,之後由系統自行決定如何行動時,法律體系便開始出現裂縫。攻擊仍然發生,但決策卻不再存在於那個瞬間。取而代之的,是一組事先寫入的規則、一段演算法,甚至是搭載人工智慧的決策系統,以及對環境的即時反應。

這正是近年國際法界討論的焦點。聯合國相關機制(GGE)針對「致命自主武器系統」(LAWS)已開始嘗試建立規範架構,核心方向大致清楚:目前的規範方向正朝向「雙軌制」收斂:一方面,對完全無法進行有效人類控制、或具備不可預測性的系統採取禁止立場;另一方面,則要求可控系統設置明確限制「隨時中止任務」與「地理範圍限制」的物理機制。

然而,這些努力仍面臨雙重挑戰:技術上,快速的戰場節奏讓人類難以實時處理資訊;心理上,「自動化認知偏誤」也可能讓操作人員過度依賴系統判斷。這意味著,即便法律在形式上保留了人類的介入權,實質上的決策權仍可能早已移交給演算法。

戰場的發展方向,也未必配合法律的期待。

在高度電子干擾與快速節奏的環境下,通訊隨時可能被切斷,人類操作本身反而成為弱點。於是,各國軍隊開始轉向另一種思維:既然無法確保即時控制,就在任務開始前把決策寫進系統裡,讓它在失去聯繫後仍能繼續執行。這種轉變,看似只是技術調整,實際上卻改變了戰爭的結構。過去,是否開火是一個「當下的決定」;現在,它變成「事前設定的結果」。當攻擊發生時,已經沒有一個清楚的時間點可以指認為決策時刻。

這對國際法意味著什麼?

首先,是責任鴻溝的出現。當行動來自自主系統與其內部演算法的運作,傳統上以「意圖」為核心的判斷將變得困難。為此,最新的立法提案開始將責任鏈條向前延伸,討論將部署前法律審查列為強制義務。這意味著,未來 AI「黑盒子」將不再是規避責任的藉口,而將成為責任追溯的起點;如果系統產生了不可預見的行為,責任將追溯至採購、測試與部署決策的每一道環節。否則,責任鏈條將在指揮官與工程師之間斷裂,甚至誘使國家利用技術的不可解釋性以規避國際法的制裁。

如果說,過去的灰色地帶行動,是透過法律模糊與低強度壓力來迴避戰爭門檻,那麼自主系統的加入,則可能讓這種壓力進一步自動化。無人載具本來就能在不直接造成人員傷亡的情況下持續施壓;當它們具備自主決策能力後,這種施壓甚至不再需要人類不斷介入。

於是,一種新的狀態開始浮現:行動持續發生,但決策卻逐漸退場。

對亞太地區而言,這樣的轉變並不遙遠。東海、台海、乃至南海,本來就是灰色地帶行動最頻繁的區域之一。然而,當前國際主流規範仍高度聚焦於「致命武力」的界定與禁止,亞太地區頻發的非致命、低強度自主載具行動,極可能成為國際法規範不到的「法律盲區」。原本需要人為判斷的壓力手段,將轉化為可以持續運作的系統行為;原本可以透過政治回應進行節制的互動,也可能因為決策步調過快而失去調節空間。對於台灣而言,壓力可能在沒有明確決策、甚至沒有清楚起點的情況下持續累積。

在這樣的情境下,國際法所能提供的,不再只是對單一事件的判斷,而是如何在一個決策逐漸消失的戰場中,重新界定控制與責任的邊界。這不僅關係到戰爭如何被約束,也關係到區域穩定是否仍有可依循的規則。

當戰場從人類決策,轉向由 AI 所驅動的演算法節奏時,國際法面對的,將不只是新武器的出現,而是一個更根本的問題:如果戰爭的關鍵選擇不再發生於人類之間,那麼用來規範人類行為的法律,還能在多大程度上約束戰爭?或者說,當決策本身已經消失時,約束還是否仍然存在?(照片翻攝示意圖)