歐盟隱私機構就 GenAI 合法性的新問題發表了看法。該委員會探討了人工智能開發人員可以利用的漏洞,以便在不違反現行法律的情況下處理個人數據。

歐洲數據保護委員會對人工智能開發商處理用戶個人數據的合法性基礎提出質疑。在 12 月 17 日發佈的一份意見中,該委員會根據 GDPR 第 64(2) 條處理了各種一般適用事項。

歐盟隱私委員會就數據保護和人工智能部署問題進行權衡

歐洲數據保護委員會(EDPB)應愛爾蘭監督當局的請求發佈了該意見。委員會指出,根據《通用數據保護條例》(GDPR),它有法定授權在影響多個成員國的事務上發表意見。

該機構指出,愛爾蘭機構提出的請求與人工智能(AI)開發和部署階段處理個人數據相關。它將意見縮小到與歐盟內的數據保護相關的四個問題。

這些問題包括何時以及如何將人工智能模型視爲匿名,以及控制者如何說明在部署中合法利益的必要性。委員會還探討了在人工智能模型開發階段非法處理數據對後續人工智能模型操作的影響。

關於如何以及何時確定人工智能模型匿名性的問題,該機構表示,應由有能力的地方當局根據具體情況作出此類判斷。委員會表示,它並不認爲所有使用個人數據匿名訓練的人工智能模型都是匿名的。

該機構建議國家監督當局評估控制者提供的相關文件,以確定模型的匿名性。它還補充說,控制者應採取相關措施,以限制培訓期間個人數據的收集,並減輕潛在攻擊。

關於合法利益作爲處理個人數據的適當法律依據的問題,委員會將確定處理此類數據的適當法律基礎的責任留給控制者。

EDPB強調了監督機構確定合法利益的三步測試。這些步驟包括識別實際合法利益並分析其必要性。控制者還必須評估合法利益是否與數據主體的權利和自由相平衡。

在評估後果時,該機構將裁量權委託給各州的監督機構。它補充說,監督機構應根據每種情況的事實選擇適當的後果。

愛爾蘭數據保護委員會對歐洲數據保護委員會關於人工智能模型監管的意見進行了評論

愛爾蘭數據保護委員會在一份聲明中迴應稱,該意見將促進歐盟內有效和一致的人工智能模型監管。委員戴爾·桑德蘭評論道:

這還將支持數據保護委員會與開發新人工智能模型的公司在他們在歐盟市場推出之前的互動,以及處理已提交給數據保護委員會的衆多與人工智能相關的投訴。

戴爾·桑德蘭

據報道,過去幾個月對ChatGPT的製造商OpenAI提出了投訴。波蘭數據保護局去年對這家人工智能開發者是否遵守GDPR提出了質疑。

該機構指控OpenAI忽視了諸如在存在個人數據泄露風險時與監管機構進行事先諮詢等要求。監管機構指出,OpenAI在未諮詢當地監管機構的情況下推出了ChatGPT,違反了GDPR指南。

意大利的Garante還要求OpenAI在2023年停止處理個人數據,然後再解決其發現的與公司平臺相關的問題。它強調,位於舊金山的公司缺乏防止未成年人訪問該技術的措施,這是法律所要求的。

監管機構警告稱,未能遵守指南將招致處罰,包括四個百分點的年營業額或兩千萬歐元,以較大者爲準。

在90天內找到高薪Web3工作:終極路線圖