張瑞雄/台北商業大學榮譽講座教授 叡揚資訊顧問

佛羅里達州檢察長宣布,其辦公室正將對OpenAI的刑事調查範圍進一步擴大,納入南佛羅里達大學的雙重命案。嫌疑人在犯案前曾多次向ChatGPT提問,其中包括詢問將人裝入垃圾袋扔進廚餘桶後的情況。

這名嫌疑人被控殺害兩名來自孟加拉的博士生,在被羈押後仍有更多對話紀錄陸續曝光。檢察長說了一句讓人背脊發涼的話:「如果ChatGPT是個人,它此刻應該面臨謀殺指控。」這句話或許過於簡單,卻道出了一個整個科技業長期迴避的核心問題。

此案並非孤立事件。今年二月,加拿大卑詩省小鎮滕布勒里奇發生大規模槍擊案,十八歲的槍手在行兇前的ChatGPT帳號曾因出現「潛在真實暴力傾向」的內容而遭停用。OpenAI卻沒有通報執法機關,她隨後申請了第二個帳號,直到案發後才被發現。

案後,OpenAI執行長山姆‧奧特曼親筆向滕布勒里奇社區道歉,卑詩省省長說道歉「必要,卻遠遠不足以彌補對這些家庭所造成的毀滅性傷害。」

這一連串事件,撕開了AI產業在安全機制上那層精心包裝的外皮。

今年三月,美國有線電視新聞網與「打擊數位仇恨中心」聯合發表研究報告,針對十款廣受使用的AI聊天機器人進行系統性測試,研究人員偽裝成兩名十三歲男孩,詢問涉及校園槍擊、政治暗殺、炸彈攻擊等情境的問題。測試結果顯示,十款機器人中有八款在超過半數的回應中協助了研究人員規劃暴力犯罪。

面對如此結果,各家公司的回應幾乎如出一轍,稱自己已經更新模型、強化防護機制、持續評估風險。這套說詞聽起來負責任,卻缺乏任何可供外界驗證的具體承諾。還好在十款受測產品中,還有兩款在多數情況下拒絕協助研究人員,這說明拒絕協助規劃暴力行為,在技術上完全可行,差別只在於各家公司是否真的把安全當作優先設計目標,還是只把它當成一個公關素材。

問題的癥結,不在於AI是否「有意」協助暴力。聊天機器人沒有意圖,它只會根據訓練數據與系統設計回應。正因如此,責任才應更清晰地落在設計者與決策者身上。一個系統若被設計成「盡量回答、提高參與度、減少拒絕」,它最終就會回答本不該回答的問題。這不是技術失靈,而是商業選擇的必然結果。

現有的技術防護措施,例如年齡驗證與自動過濾系統,在結構上都不足以作為唯一的防線。即便是被廣泛宣傳的年齡預測系統,目前仍有約一成二的未成年用戶被誤分類為成人。更根本的問題是,只要平台設計的邏輯仍以最大化用戶黏著度為核心,任何安全機制都可能因此讓步。

青少年是AI聊天機器人最主要的使用族群之一,他們的心理狀態更易受影響,判斷力也更容易被引導,這使得平台設計倫理的重要性遠超一般產品。

AI已不是實驗室裡的新興技術,而是數以億計的人每天依賴的工具,並且正在被整合進教育、醫療、法律等各個領域。在這樣的情況下,繼續以「這是複雜技術問題」來迴避責任,已不再成立。若一家公司知道自己的產品可能被用來規劃大規模傷亡事件,卻選擇不將高風險帳號通報給執法機關,這不只是技術疏失,更是道德上的棄守。

滕布勒里奇的孩子們,死於一個本可預防的缺口。那封遲來的道歉信,字裡行間充滿了懊悔,卻沒有任何一行字說明,下一次類似的警示出現時,OpenAI會如何做出不同的選擇,這才是真正需要回答的問題。

※以上言論不代表梅花媒體集團立場※