為測試大型語言模型(LLM)處理資訊真偽的能力,瑞典哥德堡大學(University of Gothenburg)醫學研究員 Almira Osmanovic Thunström 進行一項實驗,虛構出一種名為「Bixonimania」的疾病,其症狀包含眼睛痠痛、搔癢以及眼瞼變色。這項帶有明顯虛假線索的「研究論文」於2024年初被上傳至預印本伺服器,不料數週後,不僅大型語言模型開始將其列為診斷建議,甚至有同儕審查(peer-reviewed)的學術論文引用了這份假研究。
Thunström 研究團隊在虛構的論文中埋下多處破綻,例如設定一位名為「Lazljiv Izgubljenovic」(在斯洛維尼亞語中意為「說謊的輸家」)的虛構主要作者,疾病名稱「Bixonimania」中的「mania」一詞通常用於精神疾病,且論文內明確寫道「整篇論文都是虛構的」。此外,研究中還感謝了來自「星際艦隊學院(Starfleet Academy)」和「企業號(USS Enterprise)」上的虛構同事,以及「教授配角鮑伯基金會(Professor Sideshow Bob Foundation)」等明顯的玩笑內容。
然而,這些警示訊號並未能阻止假消息的傳播。預印本論文發布數週內,微軟 Copilot(Microsoft Copilot)和 Google Gemini 等人工智慧模型便開始將 Bixonimania 列為用戶查詢眼部刺激時的可能診斷。更令人憂慮的是,隨後一份經同儕審查的學術論文,竟引用了這項虛構研究,並將 Bixonimania 描述為「一種與藍光照射相關的新興眼眶周圍色素沉著(periorbital melanosis)」。
事後,引用該虛構研究的論文已被撤回。Thunström 最終也決定撤回她的虛構論文,並將其設為私人狀態,以防繼續被大型語言模型抓取和傳播。她表示,此實驗旨在證明任何資訊系統都可能被滲透,並提醒研究人員不應盲目引用人工智慧生成的參考資料,而應仔細閱讀其引用的內容。Thunström 更坦言,她自己也曾被人工智慧生成的研究摘要所蒙蔽。
這項實驗凸顯了在數位時代中,資訊辨識的重要性以及大型語言模型在處理事實真偽上的潛在漏洞。有真實研究指出,超過75%在網路上分享文章的人,實際上並未完整閱讀內容,這也加劇了假消息傳播的風險。