商傳媒|責任編輯/綜合外電報導

隨著 ChatGPT、Gemini、Claude 和 Microsoft Copilot 等大型語言模型普及,生成式人工智慧(AI)內容在企業組織內部呈爆炸性增長,對現代數據管理帶來全新挑戰。根據一份研究顯示,高達 85% 的資訊科技決策者坦言,員工採用 AI 工具的速度,已遠超乎 IT 部門評估和部署的能力,這使得企業面臨嚴峻的資料治理與法律風險。

AI 生成的內容種類繁多,從與聊天機器人的對話紀錄、合約或電子郵件的初稿、開發者工具產生的程式碼片段,到大規模產製的行銷文案等,都屬於電子儲存資訊(ESI)的範疇。例如,Microsoft Copilot 可能整合於企業的 M365 環境,但員工也常透過俗稱「影子 IT」(shadow IT)的方式,私下使用免費或消費級的 ChatGPT 或其他聊天機器人,這些未經企業監管的工具尤其令人擔憂。

外媒指出,從電子證據探索(eDiscovery)的角度來看,未經批准的 AI 工具使用問題重大。企業級平台通常提供日誌、用戶識別碼及後設資料(metadata),有助於合法且可辯護地蒐集證據;然而,影子 IT 工具往往幾乎不留下內容生成時間、作者或任何紀錄,讓證據追溯困難重重。

生成式 AI 的輸出內容,可能在多種訴訟或調查情境中成為關鍵證據。這包括涉及員工績效評估或內部備忘錄的勞資糾紛、與著作權侵權相關的智慧財產權案件(例如 AI 生成的程式碼或文字侵犯第三方權利,或機密資訊外洩)、合約爭議(關鍵條款的撰寫歸屬),以及將 AI 產製的報告、聲明或圖像冒充人類創作的詐欺與不實陳述指控。在這些案件中,無論是使用者提供的「提示詞」(input)還是 AI 的「回應」(output),都可能成為相關證據。例如,OpenAI 與《紐約時報》的著作權侵權訴訟中,雙方就曾因應蒐集資料量產生巨大爭議。

AI 生成內容在證據探索上帶來多重挑戰,包括 authorship and attribution(作者歸屬問題)、metadata and provenance(後設資料與來源證明)、validation and authenticity(驗證與真實性)、retention and legal hold(保留與法律凍結),以及 privilege and confidentiality(特權與機密性)。許多 AI 平台預設不保留後設資料,使判斷內容是否由 AI 生成、用戶編輯或複製變得複雜。此外,由於提示詞可能包含敏感或受法律保護的資料,若輸入公開平台,恐導致權益喪失。

企業應主動處理 AI 生成內容的治理問題,不可將其視為事後才需考量的環節。建議的最佳實務包括:制定明確政策,區分企業核准與未經批准的 AI 工具使用;在監管人訪談中加入 AI 內容相關問題;善用 Microsoft Purview 或 Google Vault 等企業解決方案蒐集 AI 日誌與輸出;建立可辯護的工作流程文件,證明 AI 內容的生成、編輯與使用方式;並教育員工辨識 AI 產製內容,了解其在證據探索上的影響。透過更新政策、蒐集實務和法律凍結協議,企業才能更好地應對 AI 生成內容帶來的風險與機遇。