美國政府擴大AI模型測試 強化安全監管
📋 重點摘要
●
美國政府透過國家標準及技術研究所(NIST)的 CAISI 單位,擴大對頂尖 AI 模型發布前的安全性測試。
●
CAISI 已與微軟、xAI 及 Google DeepMind 達成協議,共同評估前沿 AI 技術能力與提升 AI 安全。
●
此舉延續了與 OpenAI 和 Anthropic 的合作,並依據川普政府的新指令進行協商,顯示對 AI 國家安全影響的重視。
●
Anthropic 發表的 Mythos AI 模型專注於識別軟體弱點與安全漏洞,並應用於網路安全計畫。
相關人物:
川普
商傳媒|責任編輯/綜合外電報導
![]()
美國政府正積極強化對人工智慧(AI)模型的安全評估與監管。隸屬於美國商務部國家標準及技術研究所(National Institute of Standards and Technology)的 Center for AI Standards and Innovation(CAISI)已宣布,將在頂尖企業發布其 AI 模型前,進行安全性測試,此舉旨在識別並降低潛在的安全風險。
CAISI 週二表示,已與微軟(Microsoft)、xAI 及 Google DeepMind 達成測試與目標研究協議,目的為更好地評估前沿 AI 技術能力,並提升 AI 安全的整體水準。這批協議延續了 2024 年與 OpenAI 和 Anthropic 簽署的類似合作,相關內容已依照川普政府(Donald Trump)的新指令進行重新協商。CAISI 主任 Chris Fell 指出:「獨立、嚴謹的測量科學對於理解前沿 AI 及其國家安全影響至關重要。這些擴大的產業合作有助於我們在關鍵時刻,為公共利益擴展工作範疇。」
值得注意的是,Anthropic 上個月發表了全新的 AI 模型 Mythos AI,該模型擅長於識別軟體內的弱點與安全漏洞。Mythos AI 初期僅限於亞馬遜(Amazon)和微軟等特定公司使用,主要應用於防禦性安全工作及「Project Glasswing」這項網路安全計畫。至今,CAISI 已完成了逾 40 次的 AI 模型評估。
與此同時,川普政府也正考慮發布一項行政命令,以建立由白宮主導的 AI 監督流程,顯示美國官方對於人工智慧技術發展的重視及審慎態度。
🤔 讀到一半,先表個態?
🎯 搶頭香!這篇你的反應?