一家倡導組織透露,圖像生成器未經巴西兒童同意就使用了數十億張兒童圖像來訓練他們的人工智能模型。人權觀察組織 (HRW) 開展的一項研究表明,像 Stable Diffusion 這樣的流行圖像生成器使用了“涵蓋整個童年時期”的兒童圖像來訓練他們的模型。

另請閱讀:敦促科技公司打擊人工智能生成的兒童性虐待材料激增

人權觀察組織的研究顯示,這些照片來自巴西大約 10 個州。報告稱,這些照片對兒童構成了巨大的“隱私風險”,因爲該法案還增加了未經同意拍攝兒童肖像的照片的製作。

數十億巴西兒童圖像用於訓練人工智能模型

HRW 研究員 Hye Jung Han 在分析了 LAION-5B 的一小部分(不到 0.0001%)後發現了這個問題。LAION-5B 是一個由 Common Crawl 對公共網絡的快照構建的數據集。她透露,該數據集沒有實際的照片,但包含從自 2008 年以來發布的近 60 億張圖片和標題中提取的“圖像文本對”。

研究人員發現了來自巴西10個州的兒童照片,其中大部分是上傳到育兒和個人博客上的家庭照片。報告稱,這些照片是互聯網用戶不容易發現的。

另請閱讀:英國將色情深度僞造製作定爲犯罪行爲

HRW 與創建該數據集的德國非營利組織 LAION 合作刪除了這些圖片的鏈接。人們仍然擔心該數據集可能仍在引用來自世界各地的兒童圖片,因爲單靠刪除鏈接並不能完全解決問題。

LAION 發言人 Nate Tyler 告訴 Ars:“這是一個更大且令人擔憂的問題,作爲一個志願者組織,我們將盡自己的一份力量來提供幫助。”

兒童身份很容易被追蹤

人權觀察的報告進一步顯示,許多巴西兒童的身份可以被追蹤,因爲他們的姓名和位置被用於構建數據集的標題中。這也引發了人們的擔憂,這些孩子可能面臨被欺凌的風險,而他們的照片可能會被用於露骨內容。

報告中寫道:“所審查的照片涵蓋了整個童年時期。”

“他們捕捉到了嬰兒在醫生戴着手套的手中誕生的親密瞬間、小孩子們吹滅生日蛋糕上的蠟燭或在家裏穿着內衣跳舞的親密瞬間……”

人權觀察。

不過韓透露,“LAION-5B 的所有公開版本都已被刪除”,因此現在巴西兒童照片被使用的風險較小。

據人權觀察稱,在 LAION 確定所有被標記的內容均已刪除之前,數據集將不會再次可用。這一決定是在斯坦福大學報告還“發現數據集中的鏈接指向公共網絡上的非法內容”之後做出的,其中包括 3,000 多起疑似兒童性虐待內容。

巴西至少有 85 名女孩舉報稱,她們的同學利用人工智能“根據她們在社交媒體上拍攝的照片”生成露骨的色情深度僞造內容來騷擾她們。

保護兒童隱私

據 Ars 報道,LAION-5B 於 2022 年推出,據稱是爲了複製 OpenAI 的數據集,並被吹捧爲最大的“免費圖像文本數據集”。

當人權觀察就這些圖像聯繫 LAION 時,該組織迴應稱,在 LAION-5B 上訓練的人工智能模型“無法逐字逐句地生成兒童的數據”,儘管他們承認存在隱私和安全風險。

該組織隨後開始刪除一些圖片,但也表示父母和監護人有責任從互聯網上刪除兒童的私人照片。韓不同意他們的觀點,他說:

“孩子和他們的父母不應該承擔保護孩子免受根本無法防範的技術的責任。這不是他們的錯。”

他。

人權觀察呼籲巴西立法者緊急干預,保護兒童權利免受新興技術的侵害。人權觀察建議,必須制定新法律,禁止將兒童數據轉入人工智能模型。

Enacy Mapakame 的 Cryptopolitan 報告