英国监督互联网手表基金会(IWF)警告周二,AI生成的儿童性虐待材料(CSAM)猖ramp,可能会淹没互联网。
看门狗集团首席技术官丹·塞克斯顿(Dan Sexton)说:“我们开始看到的是内容的爆炸。”
在书面报告中,IWF警告说,如果没有采取任何措施来对AI工具进行控制,则在互联网上令人震惊的儿童性虐待材料的泛滥可能会恶化。
然后,该组织敦促政府和技术提供商在这些图像压倒执法调查员之前迅速采取行动,并大大增加了潜在受害者的数量,美联社报告。
IWF分析师看到虐待者交换建议,并涌入有关将其个人计算机转换为生产中心的简单,以生产各个年龄段的孩子的性图形图像。
分析师在一个月的时间内检查了20,254个AI生成的图像,该图像上载了Dark Web CSAM论坛上。在这些图像中,有11,108张被确定为犯罪,而其余的9,146个不包含儿童或包含孩子,而是非犯罪的。
IWF进一步指出,将2,562张图像评估为犯罪伪摄影,416张被评估为非法禁止图像。该报告还表明,发现大多数AI生成的CSAM都足够现实,可以将其视为“真实” CSAM。
即使对于熟练的IWF分析师,最有说服力的AI CSAM在视觉上与实际CSAM无法区分。 IWF表示,随着文本到图像技术的改善,其分析师和执法人员将面临进一步的障碍。
IWF还发现,AI生成的CSAM提高了重新维持众所周知的儿童性虐待受害者的可能性,以及罪犯认识的名人孩子和儿童的受害。 IWF发现了许多AI生成的图像的例子,这些图像以知名受害者和著名的孩子为特征。
塞克斯顿说:“这正在发生,现在需要解决。”

迫切需要停止AI生成的儿童性虐待材料
IWF向政府,执法,监管机构和科技公司建议了多项行动。这家总部位于英国的监管机构期待政府即将举行的AI峰会,使其成为探索和交谈的途径,就如何在各种法律制度中处理这一协议,并确保与国际政府和利益相关者进行连续合作的承诺。
IWF还呼吁执法机构更新警务学院的培训课程,以包括处理此类图像的正确方法。
该小组还要求监管机构“确保对AI模型进行适当的监管监督”,然后才能开放市场或对封闭的AI模型进行内置保护。
IWF还建议使用生成AI和大型语言模型(LLM)的科技公司禁止使用此类技术来产生儿童性虐待材料。任何“微调”以产生儿童性虐待材料的任何AI模型也必须具有“脱离索引”链接。
AI生成的儿童性虐待材料的全球案件
AI生成的CSAM已经看到了法律行动。该国釜山地方法院说,在首次案件中,一名韩国男子因使用AI创建360个虚拟儿童虐待图像而被判处2 1/2年徒刑。
另一个令人震惊的案例是如何知道孩子们彼此使用这些工具。警方正在调查指控,即西班牙西南部一所学校的青少年使用电话软件使他们的穿着衣服的同学在图片中裸露。
