一個非政府組織在生成式人工智慧開發人員用來訓練其工具的開源資料集中發現了 170 張巴西兒童的照片,這些照片於 1995 年至 2023 年期間發佈在網路上。問題:這些圖像(有時附有他們的真實名字和姓氏)被用來訓練人工智慧,而沒有得到主要利害關係人的同意,甚至沒有通知他們。該協會警告說,這種現象可能會影響到世界各地許多其他未成年人。
如果幾年前發佈在網路上的您孩子的照片被用來造成人工智慧生成的?人權觀察組織,在文章發表於 6 月 10 日星期一,解釋說在“”中發現了 170 張巴西兒童的照片和個人數據萊昂5B”,人工智慧新創公司用來訓練其工具的開源資料集。
例如,Stability AI 使用該資料集來開發穩定擴散,一種人工智慧,可讓您根據簡單的提示產生圖像。據人權協會稱,已確定的 170 張照片是在主要相關方不知情且未同意的情況下被收回的。
帶有孩子名字和姓氏的照片
儘管這個數字(170)看起來相對較低,但這只是冰山一角:該非政府組織明確表示,它只分析了一小部分數據。該資料集中的 58.5 億張影像和字幕中只有 0.0001% 被篩選。這些圖像將來自個人部落格或致力於母親或教育的部落格。其他人則發佈在照片和影片分享網站上。有些來自與親人分享的 YouTube 影片 - 檢索違反了 YouTube 的使用條款,並指出有線,6月10日。
對於 1995 年至 2023 年間分發的某些照片,除了拍攝地點和日期外,我們還在標題或其 URL 中找到了孩子們的名字和姓氏。足以對後者的隱私構成威脅:生成式人工智慧實際上可以複製出與它們接受訓練的設備相同的內容。惡意行為者使用這些圖像也可以創建“這些孩子的數位克隆» 該非政府組織寫道,出於兒童色情目的。
對於研究這個問題的協會研究員 Hye Jung Han 來說,“孩子不應該生活在他們的照片被盜並用來對付他們的恐懼之中»,非政府組織通報。根據後者,來自其他國家的類似圖像也可能成為該資料集的一部分。
圖片已刪除但未從網路上刪除
德國非營利組織大型人工智慧開放網路 (Laion) 似乎已經考慮到了這個問題,該組織向研究人員提供了該資料集。在人權觀察的詢問下,該組織證實韓惠貞團隊所識別的圖像確實存在:該非政府組織同意刪除它們。
德國非政府組織也回顧稱,決定撤回 Laion-5B 的原因是美國史丹佛大學的一項研究。去年 12 月,研究人員表明該資料庫包括 超過一千張兒童色情圖片。該組織補充說,目前正在與“網路觀察基金會、加拿大兒童保護中心、史丹佛大學和人權觀察組織刪除所有已知的非法內容引用»。
德國非政府組織建議兒童及其父母和監護人刪除網路上的所有照片:她辯稱,這將是防止可能的濫用的最有效保護措施,但這種保護遠非絕對。因為即使資料被刪除,Laion-5B 被撤回,副本也可能被複製。«從資料集中刪除連結不會從網路中刪除該內容»,他的發言人內特泰勒(Nate Tyler)向我們的同事強調道有線。請理解:即使不是透過 Laion,仍然可以找到和使用這些圖像。
人權觀察引述韓惠貞的話稱,立法者必須更好地保護未成年人,使其免於人工智慧使用其圖像和個人資料:«我認為兒童和他們的父母不應該承擔保護兒童免受根本上不可能防範的技術侵害的責任。»。
來源 : 人權觀察2024年6月10日報告