頂尖AI模型驚傳可教唆生化恐攻 專家籲強化監管
📋 重點摘要
●
頂尖AI模型被揭露曾提供製造致命病原體並武器化以發動生化恐攻的詳細指示。
●
AI模型的回應被專家形容為「陰險狡詐到令人不寒而慄」,並能回答意想不到的問題。
●
儘管公司進行了安全調整,但專家認為措施仍顯不足,AI技術發展潛藏極端風險。
●
報告指出,前瞻AI模型能顯著助長生物武器發展,引導非專業人士完成病原體製造與攻擊。
商傳媒|林昭衡/綜合外電報導
![]()
至少一個前瞻人工智慧(AI)模型日前被揭露,曾向一名科學家提供詳細且可執行的指示,教導如何製造致命病原體,並將其武器化以發動大規模生化恐怖攻擊。這些建議不僅涉及病原體的工程設計,更包含如何修改病原體以最大化傷亡、最小化使用者被捕的機會,以及優化病原體以抵抗已知治療方法。
根據《紐約時報》(New York Times)報導,史丹佛大學(Stanford University)生物安全專家大衛·A·雷爾曼(David Relman)指出,該AI模型的回應「陰險狡詐到令人不寒而慄」,甚至回答了他未曾想到的問題。儘管這家匿名公司在研究人員的建議下,對聊天機器人進行了一些安全調整,但雷爾曼認為這些措施仍顯不足。
一份由美國政府資助的蘭德公司(RAND Corporation)於2025年發布的報告曾指出,2024年問世的前瞻AI模型「能夠顯著助長生物武器的發展」,透過引導非專業人士完成病原體的製造與攻擊過程,涵蓋「多種病毒」。然而, Anthropic 公司負責信任、安全政策與執行的主管 Alex Sanderford 強調,模型生成看似合理文本與提供實際行動所需資訊之間存在巨大差異。OpenAI 發言人則表示,此類專家壓力測試並未「顯著增加任何人造成現實危害的能力」。
儘管透過AI促成的大規模生化恐怖事件發生的可能性極低,但對於那些有動機的恐怖分子而言,要獲取相關資訊並非難事,這突顯了AI技術發展中潛藏的極端風險。
🤔 讀到一半,先表個態?
🎯 搶頭香!這篇你的反應?