一家非政府组织在生成式人工智能开发人员用来训练其工具的开源数据集中发现了 170 张巴西儿童的照片,这些照片于 1995 年至 2023 年期间发布在网络上。问题:这些图像(有时附有他们的真实名字和姓氏)被用来训练人工智能,而没有得到主要利益相关者的同意,甚至没有通知他们。该协会警告说,这种现象可能会影响到世界各地许多其他未成年人。
如果几年前发布在网络上的您孩子的照片被用来造成人工智能生成的?人权观察组织,在文章发表于 6 月 10 日星期一,解释说在“”中发现了 170 张巴西儿童的照片和个人数据莱昂5B”,人工智能初创企业用来训练其工具的开源数据集。
例如,Stability AI 使用该数据集来开发稳定扩散,一种人工智能,可让您根据简单的提示生成图像。据人权协会称,已确定的 170 张照片是在主要相关方不知情且未同意的情况下被收回的。
带有孩子名字和姓氏的照片
尽管这个数字(170)可能看起来相对较低,但这只是冰山一角:该非政府组织明确表示,它只分析了一小部分数据。该数据集中的 58.5 亿张图像和字幕中只有 0.0001% 被筛选。这些图像将来自个人博客或致力于母亲或教育的博客。其他人则发布在照片和视频共享网站上。有些来自与亲人分享的 YouTube 视频 - 检索违反了 YouTube 的使用条款,并指出有线,6月10日。
对于 1995 年至 2023 年间分发的某些照片,除了拍摄地点和日期外,我们还在标题或其 URL 中找到了孩子们的名字和姓氏。足以对后者的隐私构成威胁:生成式人工智能实际上可以复制出与它们接受训练的设备相同的内容。恶意行为者使用这些图像还可以创建“这些孩子的数字克隆» 该非政府组织写道,出于儿童色情目的。
对于研究这个问题的协会研究员 Hye Jung Han 来说,“孩子们不应该生活在他们的照片被盗并用来对付他们的恐惧之中»,非政府组织报道。根据后者,来自其他国家的类似图像也可能成为该数据集的一部分。
图片已删除但未从网络上删除
德国非营利组织大型人工智能开放网络 (Laion) 似乎已经考虑到了这个问题,该组织向研究人员提供了该数据集。在人权观察的询问下,该组织证实韩惠贞团队识别的图像确实存在:该非政府组织同意删除它们。
德国非政府组织还回顾称,其决定撤回 Laion-5B 的原因是美国斯坦福大学的一项研究。去年 12 月,研究人员表明该数据库包括 超过一千张儿童色情图片。该组织补充说,目前正在与“互联网观察基金会、加拿大儿童保护中心、斯坦福大学和人权观察组织删除所有已知的非法内容引用»。
德国非政府组织建议儿童及其父母和监护人删除网络上的所有照片:她辩称,这将是防止可能的滥用的最有效保护措施,但这种保护远非绝对。因为即使数据被删除,Laion-5B 被撤回,副本也可能被复制。«从数据集中删除链接不会从网络中删除该内容»,他的发言人内特·泰勒(Nate Tyler)向我们的同事强调道有线。请理解:即使不是通过 Laion,仍然可以找到和使用这些图像。
人权观察援引韩惠贞的话称,立法者必须更好地保护未成年人,使其免遭人工智能使用其图像和个人数据:«我认为儿童和他们的父母不应该承担保护儿童免受根本上不可能防范的技术侵害的责任。»。
来源 : 人权观察2024年6月10日报告