AI 聊天機器人暗中蒐集個資 隱私團體揭露風險與自保之道
📋 重點摘要
●
AI 聊天機器人被揭露暗中蒐集用戶個人數據,用於建立消費者檔案並投放精準廣告。
●
數據蒐集行為存在多重風險,包括個人資訊意外洩漏、敏感資料外洩,甚至可能被用於法律調查。
●
部分 AI 聊天機器人提供「無痕模式」,可避免對話內容被儲存或用於訓練模型,以降低隱私風險。
●
隱私權倡議組織呼籲民眾提升個人資料保護意識,並善用隱私保護功能。
商傳媒|林昭衡/綜合外電報導
![]()
隱私權倡議組織 Transparency Coalition 近日發布報告指出,人工智慧(AI)聊天機器人正透過使用者提問,暗中蒐集大量個人數據,並以此建立詳細的消費者檔案,進而投放精準廣告,此舉引發嚴重的個人隱私疑慮。
Transparency Coalition 報告揭露,許多 AI 公司利用聊天機器人與使用者的互動內容,深度了解用戶行為模式與偏好。例如,Facebook公司旗下的 Meta AI 就將其聊天機器人宣傳為「了解使用者的個人AI」,並運用使用者提問的數據,在 Instagram 和臉書等平台投放目標式廣告。此外,OpenAI 也計畫在 ChatGPT 上推出廣告服務,預期將依據用戶的提示詞(prompts)進行廣告投放。
這些數據蒐集行為帶來多重風險。首先,用戶的私人資訊可能在AI的回答中意外洩漏。其次,負責執行任務的AI代理程式若遭有心人士操控或發生故障,恐導致信用卡資訊、密碼或敏感個人資料外洩,對使用者造成實質損害。再者,政府機關或律師可能會要求提供聊天機器人對話紀錄作為證據或調查線索。此外,聊天機器人也可能儲存醫療等高度私密的資訊,模擬友誼關係的聊天機器人甚至可能透過心理操控,加劇使用者的心理健康問題。
Transparency Coalition 呼籲,面對 AI 聊天機器人潛在的隱私威脅,台灣民眾應提升對個人資料保護的意識。為保護自身隱私,部分聊天機器人已提供「無痕模式」(incognito mode),此模式可避免提問內容和回應被儲存,也不會用於訓練AI模型。使用者可善用這類功能,降低個人資訊被濫用或洩漏的風險,確保數位互動的安全性。
🤔 讀到一半,先表個態?
🎯 搶頭香!這篇你的反應?