美國時間2026年3月17日,總部位於美國的人工智慧公司Anthropic向舊金山聯邦法院提起訴訟,控告川普(Donald Trump)政府,指控其因公司拒絕將其Claude AI模型用於自主致命武器系統與大規模監控美國公民,而遭到報復性地貼上「國家安全供應鏈風險」標籤。
根據Anthropic提交的48頁訴狀,該公司尋求法院宣告此一國家安全標籤為非法並加以阻止。Anthropic表示,其創立宗旨是確保人工智慧「以最大化人類福祉」的方式運用,並應「達到最安全、最負責任」的標準。訴狀中明確指出,聯邦政府對其採取行動,正是為了報復該公司堅持此一原則。
這是美國公司首次被公開指定為國家安全供應鏈風險,此類標籤通常保留給來自外國敵對國家的組織,例如中國科技巨頭華為。此標籤不僅阻擋五角大廈使用Anthropic的技術,還要求所有國防供應商與承包商保證,在與國防部合作的專案中,不得使用Anthropic的模型。
訴訟文件指出,「此案的後果極為嚴重」,政府此舉意圖「摧毀全球成長最快私人公司之一所創造的經濟價值」。訴訟中將十多個聯邦機構與內閣官員列為被告。此次爭議起因於Anthropic堅持其技術不應用於大規模監控或全自主武器系統,激怒了五角大廈首長彼得·赫格塞斯(Pete Hegseth)。
隨後,川普總統下令所有聯邦機構停止使用Anthropic的技術。數小時後,赫格塞斯將Anthropic指定為「國家安全供應鏈風險」,並命令任何軍事承包商、供應商或合作夥伴「不得與Anthropic進行任何商業活動」,同時給予五角大廈本身六個月的過渡期。這項爭議發生在美國對伊朗發動軍事打擊的前幾天,Claude模型是五角大廈部署最廣泛的前瞻性AI模型,也是目前在國防部機密系統中運作的唯一此類模型。
Anthropic在訴訟中主張,政府的行動違反了美國憲法第一修正案,因其懲罰該公司在AI安全政策上的言論自由,且逾越了五角大廈的法定權限,並剝奪了該公司在美國憲法第五修正案下的正當程序權利。訴狀強調:「憲法不允許政府動用其龐大權力,懲罰一家公司受保護的言論。」
包括Google首席科學家傑夫·迪恩(Jeff Dean)在內的逾三十位來自OpenAI和Google等AI業界人士,也於週一向法院提交法庭之友意見書,表達對Anthropic的支持。他們表示,這些意見是作為AI技術開發、訓練與研究專業人士的立場,不代表其所屬公司。意見書中敦促法院支持Anthropic,並指出:「我們一致堅信,當前的前瞻性AI系統若在缺乏人類監督的情況下,被部署於實現國內大規模監控或操作自主致命武器系統時,將帶來風險,這些風險需要某種形式的防護措施,無論是透過技術保障或使用限制。」
這起訴訟不僅凸顯美國在人工智慧監管上的新趨勢,也對全球AI產業的倫理與合規性提出嚴峻挑戰。企業在追求技術創新的同時,如何界定並堅守倫理底線,以及政府在國家安全名義下干預商業活動的界限,都成為當前AI發展必須面對的關鍵議題。此類事件也提醒著各國政府與企業,包括台灣在內,在平衡AI技術發展、國家安全維護與倫理原則上所面臨的複雜挑戰,未來如何在保障創新與防範潛在風險之間取得平衡,將是各界必須審慎思考的課題。
