張瑞雄/台北商業大學榮譽講座教授、叡揚資訊顧問
2025年2月10日,加拿大卑詩省的小鎮滕布勒里奇發生了一起震驚全國的校園槍擊案。兇手在行兇前八個月,便曾在ChatGPT上多次與系統進行涉及槍枝暴力的對話互動,OpenAI的自動審查機制早已將其帳號標記為高風險。公司內部約有十幾名員工知情,部分人甚至主張應通報警方,但最終的決定只是封鎖帳號了事,沒有任何進一步的處置。八個月後,八條人命就此消逝。
這起悲劇不只是一間企業的失誤判斷,它像一道強光,照出了整個AI治理體系的空洞。
另外在大西洋彼岸傳來另一則令人憂慮的消息,美國國防部長彼得.赫格塞斯與Anthropic執行長達里歐.阿莫代在五角大廈會面,據報導,赫格塞斯向阿莫代發出最後通牒,若不放棄Claude現有的安全使用限制,讓軍方得以「無拘無束」地使用這套AI系統,Anthropic可能面臨合約終止、被列為「供應鏈風險」,乃至依據《國防生產法》被強制徵用等後果。
這兩件事,放在一起看,呈現出一種令人不安的矛盾。一邊是AI企業在沒有法律框架的情況下,因為不知道該做什麼而什麼都不做,導致人命損失;另一邊則是政府以國家安全為名,試圖強迫企業拆除那些本來用來防止AI被濫用的防護欄。
問題的核心,其實不是AI該不該受到管制,而是誰來管、怎麼管、管什麼。
加拿大的例子清楚說明,讓私人企業自行裁量高風險情境,是一種制度性的失敗。OpenAI的內部人員並非臨床心理師或犯罪風險評估專家,卻被迫在沒有任何法律指引的情況下,決定一個人的暴力意圖是否達到通報門檻。加拿大的《人工智慧與數據法》和《網路傷害法》在國會休會時雙雙胎死腹中,留下的是一紙毫無法律約束力的自願行為準則。企業在法律不明的情況下,理性選擇往往是「做最少的事來保護自己的責任」,而不是「做對社會最有益的事」。這不是道德問題,是制度設計問題。
Anthropic面對國防部的威脅,則揭示了另一種危機。Anthropic明確反對Claude被用於大規模國內監控或完全自主運作的致命性武器系統,這些紅線並非任意設立,而是公司在技術尚不成熟、風險仍高度不確定的情況下,為防止不可逆傷害所設定的邊界。耐人尋味的是,據悉這些限制在實際操作上並未真正妨礙五角大廈的任何任務,包括一場涉及委內瑞拉總統逮捕行動的軍事行動,Anthropic也未提出異議。那麼究竟是什麼讓國防部無法接受這幾條限制?答案恐怕不在於現實的軍事需求,而在於誰有權定義AI的邊界。
這場角力背後,有一個更根本的問題正在醞釀。當政府將企業自訂的倫理標準定性為「國家安全威脅」,等於是在宣示AI的安全邊界應由國家權力來決定,而不是由開發者或公民社會。這種邏輯若成立,AI治理就不再是一個技術或倫理問題,而是一個純粹的政治權力問題。
真正需要釐清的,是哪些問題適合交給市場,哪些問題必須由法律介入。AI系統在私密情境下接觸到高風險個人資訊時,如何處置這些資訊,屬於公共安全的範疇,不應由企業自行裁量。但什麼樣的AI架構最有效、哪種訓練方式最能產生可靠的系統,則確實應該留給研究者和市場去探索,而不是由官僚事前核定。
把這兩種邏輯混淆,才是問題所在。加拿大的錯誤是把本該立法規範的責任,錯誤地丟給了私人企業去自我約束。美國國防部的錯誤則是把本該由倫理與技術判斷決定的安全邊界,試圖用政治壓力強行奪走。前者製造了真空,後者試圖用政治力量填充本不屬於權力的空間。
這兩件事以不同的方式,都在告訴我們同一件事,AI治理不能再靠道德呼籲或企業善意來維持,也不能讓政治力量以安全之名任意重劃邊界。我們需要的是有法律強制力的框架、有專業判斷介入的機制,以及對「什麼是政府該做的、什麼是市場該做的、什麼是任何一方都不該單獨決定的」這個問題,給出清醒而誠實的回答。
時間不等人,而代價,已經開始由無辜的人來承擔了。
※以上言論不代表梅花媒體集團立場※