商傳媒|葉安庭/綜合外電報導

加拿大個人隱私專員公署(Office of the Privacy Commissioner, OPC)與部分省級主管機關近日裁定,人工智慧公司OpenAI在訓練其對話式大型語言模型ChatGPT時,使用公開可取得的網際網路數據及第三方授權資料,已違反加拿大隱私法規。此項裁決為全球人工智慧(AI)發展,特別是在訓練數據的隱私保護方面,樹立了一個值得關注的先例。

根據加拿大個人隱私專員公署的結論,OpenAI使用公開在網路上的資訊來訓練模型,做法被評為「過於廣泛」(overbroad),且未能滿足加拿大現行法規中的同意(consent)要求。主管機關認為,公眾對於自身數據被用於AI訓練,在當時尚未形成合理的預期,因為這項技術在當時仍屬「新穎」且「未被廣泛理解」。

英屬哥倫比亞省(BC)及艾伯塔省(Alberta)的隱私主管機關甚至進一步指出,即便OpenAI採取了緩解措施,數據同意的問題依然未能解決。然而,要從數十億名公開分享資訊的個人那裡取得明確的數據使用同意,對於需要網際網路規模訓練數據的AI開發而言,實際上是不可行的。許多引發爭議的數據,原本就是人們在公開論壇、社群媒體、網站及線上討論中主動分享的內容。

加拿大個人隱私專員公署在裁決中承認,OpenAI發展和部署生成式AI系統的整體目標是合理的,也認可運用用戶互動數據來改進模型效能的合法性。但報告強調,監管機構擔憂訓練數據可能包含敏感或不準確的資訊,卻未明確解釋為何AI訓練數據應適用與其他網路系統截然不同的標準,尤其是在搜尋引擎早已能索引相同內容的情況下。

這項裁決也透露出主管機關推論中的深層問題。加拿大個人隱私專員公署指出,自ChatGPT推出後,公眾對AI系統的認知有所提升,導致對「合理預期」的擔憂隨之減輕。這暗示著一項做法在獲得公眾熟悉後,其可接受度也會提高。評論認為,若相同行為的合法性取決於公眾的習慣程度,這可能意味著問題的核心不在於具體的隱私損害,而是主管機關對新技術本身的反應。這對積極發展AI技術的地區,例如台灣,這類法規挑戰亦是未來制定相關政策時必須審慎考量的關鍵議題。