美國眾議院上週提出一項跨黨派法案,旨在要求聯邦貿易委員會(Federal Trade Commission, FTC)為人工智慧(AI)基礎模型訂定透明化規範,以應對目前被形容為「黑盒子」的AI技術。
這項法案由國會AI黨團共同主席、民主黨籍眾議員 Don Beyer(維吉尼亞州)、共和黨籍眾議員 Mike Lawler(紐約州)及民主黨籍眾議員 Sara Jacobs(加州)共同發起。法案要求 FTC 與商務部長、白宮科技政策辦公室(Office of Science and Technology Policy, OSTP)主任及國家標準暨技術研究院(National Institute of Standards and Technology, NIST)院長合作,共同制定相關要求。同時也將諮詢標準制定機構、學術界、科技專家、公民權利倡議者及消費者意見。
眾議員 Don Beyer 指出,目前AI基礎模型因使用者無法理解其特定回應的原因,常被形容為「黑盒子」(black box)。他表示:「這項法案將有助於使用者判斷是否應信任所使用的模型,並識別資料限制、潛在偏見或誤導性結果。當模型的偏見可能導致住屋或貸款申請遭拒,或錯誤醫療決策等有害結果時,這項改革的重要性就顯而易見。」
法案目標是促使AI模型在商業部署前,對其測試文件與資料收集細節進行紀錄,並要求在「系統生命週期」內持續保持透明。為確保全面透明,立法者認為AI模型應提供訓練資料來源的詳細摘要、資料的廣泛描述、資料治理程序、模型目的與潛在非預期後果,以及用於訓練模型的運算能力等資訊。全開源模型將獲得豁免。
此外,法案特別要求開發者,針對涉及國家安全、選舉、執法、醫療保健、招聘決策、金融決策以及生物、化學、放射性或核武器等高風險領域,需揭露為防範不準確或有害資訊所採取的預防措施。
FTC 將負責規劃協助小型與新創企業符合新規定,並與 NIST 共同發布合規指南。這些企業將享有三個月的寬限期,並可安排「合格且技術熟練的代表」進行會議諮詢。FTC 將依據其「不公平或欺騙性行為與做法」規定執行,並在採取執法行動前至少兩週通知受影響實體。
眾議員 Mike Lawler 強調:「這關乎問責制,並在快速發展的技術超越常識性防護措施前,提早應對。」眾議員 Sara Jacobs 則認為:「信任將決定全球AI競爭的勝負——區分那些贏得信任的國家和開發者,以及那些沒有贏得信任的。透明度是偵測和處理潛在危害、釐清責任、以及建立對正迅速塑造我們生活、經濟和國家安全系統信心的第一步。」