黑暗网络上的信息窃取恶意软件日志已经确定了许多下载和共享儿童性虐待材料(CSAM)的人,突出了一种新的执法技术。
这些信息允许记录的未来的Insikt组识别3,324个帐户访问CSAM-Distributing门户。分析师使用BleepingComputer报告的用户名,IP地址和系统特征来跨平台跨平台追踪这些身份。
执法部门有此信息来识别肇事者并进行逮捕。诸如Redline,Raccoon和Vidar之类的InfoStealer日志包括关键数据,包括密码,浏览历史记录,加密货币信息等。深色的韦克斯包并出售这些记录,从而促进了犯罪活动。
在2021年2月至2024年2月之间,Insikt通过与已知的CSAM域的交叉引用盗窃证书确定了罪魁祸首。当他们删除重复项时,他们发现了独特的用户名 - 件匹配。
CSAM罪犯暴露了
研究人员可能会使用信息窃取恶意软件将CSAM帐户用户与电子邮件,银行和社交网络帐户联系起来。数字货币交易,浏览历史记录和自动填充数据提供了其他见解。
Insikt的开创性使用信息窃取器数据表明了其改善儿童性剥削跟踪和定罪的潜力。
这一发展是随着儿童掠食者越来越多地使用人工智能(AI)来创建儿童的性图形照片,阻碍了执法试图防止互联网性剥削。
斯坦福大学的互联网天文台发现,AI驱动的技术允许犯罪分子创建假图像和视频根据实际的孩子的照片,CNA报道说,增加儿童性虐待内容。
圣何塞州立大学司法部研究副教授布莱斯·韦斯特莱克(Bryce Westlake)指出,在线罪犯可以创建“他们能想象的任何东西”的图像,强调执法人员的关注。他补充说,CSAM现在在社交媒体和私人网站上广泛存在。
截至2023年,国家失踪和被剥削儿童的Cybertipline中心记录了超过3600万个涉嫌儿童性虐待事件,强调了对受害者及其家人的普遍影响。
拟议的《美国儿童在线安全法》和加拿大的《在线危害法》试图使社交媒体公司对有害的AI生成的材料负责。

AI阻碍了美国执法者反对在线虐待儿童的努力
但是,根据《卫报》的调查,使用AI进行内容审核的社交媒体公司正在使儿童性虐待检测和报告更难报告,也许允许罪犯逃脱监狱。
美国法律要求社交媒体业务将CSAM提交给国家失踪和被剥削儿童中心。 NCMEC在2022年收到了超过3200万个涉嫌儿童性剥削的报告,其中包括8800万张照片,视频和相关材料。
包括Facebook,Instagram和WhatsApp在内的Meta产生了84%的报告,超过2700万。这些站点的AI算法确定了可疑的内容,在向NCMEC和执法部门报告之前,人类主持人会分析这些内容。值得注意的是,执法部门只能从报告公司获得搜查令后才访问AI生成的CSAM报告,这可能需要数天或几周。
NCMEC的分析服务部分副总裁Staca Shehan指出,法律限制:“如果公司没有在将文件报告给NCMEC之前先查看该文件,则执法部门将无需法律程序就无法打开或审查该文件。”
十年前,法官认为NCMEC的调查是政府行动,需要对任意搜查和癫痫发作进行第四修正案的隐私保护。
儿童安全和法律专家警告说,这种延误会损害调查,从而导致证据丧失并危及儿童。一位匿名助理美国检察官指出,这种延误对社区安全构成了高风险,因为这使罪犯能够“继续未发现活动,使每个孩子处于危险之中”。
尽管面临挑战,AI仍帮助警察和团体与在线儿童剥削作斗争。
国家性剥削高级副总裁Marcel van der Watt博士称AI的职能为“增强情报”,聊天机器人与恋童癖者在线互动,帮助执法人员识别和追捕罪犯,称为AI的职能。
