苹果为iCloud寻找儿童性虐待材料(CSAM)的照片扫描功能不再向前发展。
iPhone制造商确认,它杀死了其推出这样的安全功能的计划,这给著名的科技巨头带来了巨大争议。因此,检测工具将不再看到一天的光芒。

苹果的CSAM iCloud照片扫描功能不再推出
根据Mac谣言,苹果宣布正在努力介绍解决儿童安全的新安全功能。
拟议的新安全功能包括iCloud照片上的CSAM检测。它应该扫描iCloud用户的照片,以查找潜在的禁止儿童的图像。 iPhone Maker计划在iOS 15和iPad OS 15上发布它。
但是,全新的iOS 16已经开始推出,我们还没有看到它来了。

值得注意的是,该功能甚至在苹果开始推出之前就受到了严重的批评。安全研究人员甚至是该科技巨头的一些员工都警告了它。
由于其客户的反馈,这家位于库比蒂诺的科技巨头推迟了其推广。最初,该公司计划在2021年底之前发布检测功能。
鉴于此,直到今天,技术庞然大物一直对此保持了近一年的关注。苹果在最近的声明中证实有线它不再计划继续前进。
苹果为什么要杀死其CSAM iCloud照片检测功能?
这家科技巨头说,它“决定不推动我们先前建议的iCloud照片的CSAM检测工具”。
苹果现在说:“可以保护儿童,而无需公司通过个人数据梳理。”
但是,尽管如此,iPhone制造商仍会考虑孩子的安全。
苹果说:“我们将继续与政府,儿童倡导者和其他公司合作,以帮助保护年轻人,保留隐私权,并使互联网成为儿童和我们所有人的更安全的地方。
Wired在其报告中指出,iPhone Maker确认CSAM检测功能在将扩展的端到端加密扩展到iCloud后不久就死了。
这次,iOS 16.2更新甚至将端到端加密带给iCloud上的备份和照片。它应该进一步增强用户的隐私。
批评者发现CSAM这样做。一些网络安全专家警告说,执法部门可以将检测功能用作监视某些用户的后门。
但是现在,苹果已经完全放弃了推出扫描功能的计划。
