超过数千个(儿童性虐待材料)在苹果公司最终决定跳过添加有助于在其平台上检测它的工具后,受害者现在正在与苹果公司进行斗争。许多公司和服务已经通过定期检查数据库来提供 CSAM 检测技术,该工具可以检测这些非法材料,以便稍后由人类进行验证。
在这件事上,随着时间的推移,苹果公司已经否定了自己,该公司最初声称将在其服务中应用一种 CSAM 扫描工具,但该公司后来退出了提供这项技术,以防止进一步的危害。
Apple 面临 CSAM 受害者发起的 1.2B 美元诉讼
根据最新报告艺术技术最近,CSAM 受害者聚集在一起,对 Apple Inc. 发起集体诉讼,重点是他们在检测和阻止 CSAM 传播方面所做的努力或缺乏努力。众所周知,苹果仍然是世界上最大的公司之一,尤其是在消费科技领域,但该公司并没有应用上述 CSAM 规则,而是反悔了。
数千名受害者联合起来提出一项针对苹果公司提起集体诉讼的提案,如果库比蒂诺败诉,该公司现在可能面临 12 亿美元的罚款,以向原告支付费用。
然而,苹果公司此前曾辩称,添加这些 CSAM 工具可能会导致监管机构(尤其是政府实体)滥用权力,并可能导致非法监视这家科技巨头并成为受害者。
Apple 言出必行,推出新的 CSAM 工具
据了解,苹果此前曾同意在其服务中应用CSAM扫描工具,但该公司在此事上保持了立场,特别是因为这也可能对公司造成损害。苹果公司食言,应用了新的 CSAM 工具,尽管苹果公司声称它也遵守某个国家的法律,尤其是以扫描功能为中心的法律。
如果苹果败诉,除了 12 亿美元赔偿外,还将附上一项命令,要求返还该公司未能申请的 CSAM 监控工具。
CSAM 工具和预防工作
许多当局和政府组织正在开展活动,反对互联网上猖獗的 CSAM 内容,并游说采取不同的行动来帮助解决这一问题。最受欢迎的举措之一来自欧盟,欧盟此前推出了但此后因其对账户的过度监控而受到批评。
此外,众所周知,生成式人工智能的兴起极大地影响了不良行为者在网络世界中制作深度伪造的儿童色情内容的更危险的行为,当局已经对此事进行了打击。话虽如此,OpenAI、微软、Meta 等知名人工智能公司在其平台内维护儿童安全,并避免在这些材料中滥用生成式人工智能。
在各个地区,Apple 都看到了来自不同机构的 CSAM 监控要求,其中包括以客户端扫描功能为中心的英国在线安全法案。然而,苹果公司此前食言,添加了 CSAM 扫描工具,据称该工具可以帮助更多不知情的儿童成为受害者,但现在他们因最近改变主意而面临 12 亿美元的诉讼。