整理:何淵,DPOHUB主理人
歐洲EDPB關於人工智慧模型資料保護的意見
精 解
一、基本資訊
-
釋出主體:歐洲資料保護委員會(EDPB)。 -
釋出時間:2024 年 12 月 17 日。
二、出臺背景
隨著人工智慧技術的迅猛發展,其在眾多領域的廣泛應用引發了一系列資料保護相關問題。人工智慧模型在處理個人資料時,如何確保資料主體的權利得到充分保護成為關鍵議題。在此背景下,愛爾蘭監管機構於 2024 年 9 月 4 日依據《通用資料保護條例》(GDPR)第 64 (2) 條,請求 EDPB 就人工智慧模型開發和部署過程中個人資料處理的關鍵問題發表意見。此次請求旨在達成對相關問題的共識,確保 GDPR 在人工智慧領域的一致適用,維護資料主體的基本權利,促進人工智慧技術在合法合規框架內的創新發展。
三、核心內容要點
(一)AI 模型匿名性評估
-
判定標準 -
使用個人資料訓練的 AI 模型不能簡單認定為匿名。其匿名性需綜合評估,關鍵在於個人資料被直接(包括機率性)提取或透過查詢獲取的可能性是否極小,同時要考量控制者或其他人 “合理可能使用的所有手段”。 -
監管機構應依據 WP29 意見 05/2014 等相關準則,審查控制者提供的檔案,如模型設計文件、資料處理記錄等,判斷模型是否滿足匿名條件。若模型存在可提取個人資料的風險,或輸出與訓練資料相關的個人資訊,則不能認定為匿名。 -
影響因素 -
訓練資料、模型和訓練過程的特徵,如資料獨特性、模型複雜度和訓練方法等,會影響識別風險。例如,資料過於敏感或模型缺乏有效的隱私保護機制,可能導致識別風險增加。 -
AI 模型釋出和處理的上下文,包括訪問限制、安全措施等,以及可獲取的額外識別資訊、獲取成本和時間、處理時的技術水平等,均在評估範圍內。例如,若模型可被廣泛公開訪問且缺乏安全防護,識別風險將升高。
(二)正當利益作為法律依據的評估
-
三步測試法 -
確定正當利益:利益需合法、清晰精確闡述且真實當前存在。例如,開發輔助使用者的對話代理服務或檢測欺詐的 AI 系統等可視為正當利益,但需具體情況具體分析。 -
分析處理必要性:處理應是實現正當利益的必要手段,需考慮是否有其他更少侵入性方式,以及處理資料量與利益追求的比例關係。例如,若能用合成數據達到相同效果,則處理個人資料可能不必要。 -
評估利益平衡:要權衡控制者或第三方的正當利益與資料主體的利益及基本權利自由。資料主體在開發和部署階段有多種權益,如對個人資料的控制權、財務利益等,同時基本權利如隱私、言論自由等也需保障。例如,若 AI 模型處理可能侵犯資料主體隱私,即使有正當利益,也可能不被允許。 -
資料主體合理期望的作用 -
資料主體的合理期望在平衡測試中關鍵。其受資料公開性、與控制者關係、服務性質、資料收集上下文、來源隱私設定、模型用途及資料主體對資料線上的意識等因素影響。例如,使用者在不同場景下對資料處理期望不同,控制者應提供足夠資訊幫助形成合理期望,避免因期望不符導致處理爭議。
(三)非法處理對後續處理的影響
-
場景一:同一控制者處理 -
若控制者非法處理個人資料開發模型且資料保留,後續同一控制者處理時,監管機構可干預初始處理,糾正措施可能影響後續處理。例如,監管機構可責令刪除非法資料,使後續處理無法使用這些資料。 -
開發與部署階段目的關係及初始處理非法性在正當利益評估中的考量等因素,會影響後續處理合法性。例如,若初始非法處理使資料主體風險增加或期望不符,後續處理合法性受質疑。 -
場景二:另一控制者處理 -
確定不同控制者角色及責任是關鍵。最初和後續控制者都要確保處理合法性,監管機構評估兩者行為,包括資料來源合法性審查等。例如,若初始控制者非法獲取資料,後續控制者未審查就使用,可能承擔連帶責任。 -
初始處理非法性對後續處理影響逐案評估,涉及後續控制者對模型開發合法性評估、資料主體潛在風險評估及平衡測試中技術和法律因素考量等。例如,後續控制者需評估模型是否侵權,在正當利益評估中考慮初始非法處理帶來的資料主體風險。 -
場景三:模型匿名化後處理 -
若模型匿名化後後續操作不涉個人資料處理,GDPR 可能不適用,但監管機構要嚴格評估匿名性。例如,若模型存在潛在個人資料提取風險,仍受 GDPR 約束。 -
若部署階段處理新收集個人資料,其合法性不受初始處理非法性影響,但初始處理仍受監管機構干預。例如,後續合法處理不改變初始非法處理應受的監管,監管機構可要求控制者整改初始問題。
(四)控制者確保合規的措施
-
模型設計階段 -
選擇來源:控制者應選擇合適的訓練資料來源,確保選擇標準適當、來源與目的相關且充分,排除不適當來源。例如,開發醫療 AI 模型應選合法可靠的醫療資料來源。 -
資料準備和最小化:考慮使用匿名或假名化資料,實施資料最小化策略,如限制資料量、過濾不相關資料。例如,影像識別模型訓練只選必要影像資料,避免過度收集個人資訊。 -
訓練方法選擇:採用能降低可識別性的方法,如正則化和差分隱私技術。例如,差分隱私可擾動資料保護隱私同時不影響模型效能。 -
模型輸出措施:新增措施降低查詢獲取訓練資料相關個人資料的可能性,如模糊化輸出或限制輸出詳細度。 -
模型分析與測試 -
進行文件審計,包括評估所選措施對限制識別可能性的影響,如分析程式碼審查報告。同時,開展針對多種攻擊的結構化測試,如屬性和成員推斷、資料洩露等測試,確保模型抗攻擊能力。例如,定期模擬攻擊測試並根據結果改進模型和保護措施。
(五)緩解措施的應用
-
多種型別措施 -
技術措施:採取如加密模型等措施,在不影響模型功能前提下增加資料安全性,不導致匿名化且不違反其他 GDPR 義務或必要性測試。 -
假名化措施:根據情況實施防止基於個人識別符號組合資料的措施,但需權衡控制者資料收集需求。例如,研究性模型開發中要謹慎使用假名化措施。 -
促進權利行使措施:包括在資料收集和使用間設合理時間間隔、提供無條件 “選擇退出”、允許資料主體在特定情況下行使刪除權、處理資料反芻主張等。例如,金融 AI 模型應允許使用者對錯誤資料記憶提出糾正主張。 -
透明度措施:釋出超 GDPR 要求的資訊,採用多種方式告知資料主體,如媒體宣傳、電子郵件、視覺化、模型卡等,增強資料主體對處理活動的理解。例如,金融機構的 AI 模型應詳細說明資料使用情況。 -
措施實施與評估 -
緩解措施應根據具體情況定製,監管機構逐案評估其實施和效果,確保符合 AI 模型特點、處理目的和資料主體權益保護要求。例如,監管機構審查措施是否有效降低風險,是否存在過度或不足情況。
(六)監管機構的權力與職責
監管機構負責監測 GDPR 應用,評估 AI 模型處理個人資料的合法性。享有酌處權,可根據侵權情況選擇適當、必要和相稱的措施,如糾正措施包括罰款、限制處理、刪除資料或模型等,同時要考慮資料主體風險、侵權嚴重程度、措施可行性和資料量等因素。此外,監管機構的措施不妨礙其他法律框架下的行動,且要確保資料主體能依據 GDPR 行使權利,如請求刪除非法處理的資料等。
以下是中譯本全文(完整版):
🌹如需中譯本(文字版)和原文(PDF版),請在文末加入DPOHUB開放社群領取!





















🌹如需中譯本(文字版)和原文(PDF版),請在文末加入DPOHUB開放社群領取!
全部AI及資料中譯本及資訊請加入