苹果宣布将在公共和安全专家受到强烈批评后将其儿童保护功能推迟。儿童保护功能将扫描用户的照片中的儿童性虐待材料或CSAM。
但是,安全专家指出,它可能会影响用户隐私,即使不是没有,系统也可能会错误地指责用户保存儿童色情制品。该功能本来应该在今年晚些时候分发。
苹果停止了CSAM的发布
根据边缘,苹果宣布了其扫描功能的计划。它旨在帮助保护儿童免受使用设备寻找色情材料的捕食者的侵害。
苹果补充说,根据客户,几个研究人员和倡导小组的反馈,他们决定在未来几个月内花更多的时间收集投入并在发布该功能之前进行必要的改进。
苹果关于更改的原始新闻稿,旨在减少CSAM的扩散,具有与最新版本相同的陈述。
原始版本详细介绍了这项工作的三个更改,其中一个是搜索和Siri放置资源以防止CSAM,如果用户搜索了与之相关的任何信息。
另外两个变化受到严格审查。当父母发现孩子会收到或发送性明确的图像时,一项更改将立即提醒父母。这也会模糊儿童的性爱照片。
另一个更改将扫描存储在用户iCloud帐户中的图片。如果检测到它们,它将向公司的主持人报告。
然后,主持人将将报告转发给国家失踪和被剥削的儿童或NCMEC中心。
CSAM的强烈反对
在过去的几周中,苹果详细详细介绍了扫描系统,以减轻用户的担忧和倡导组,但不幸的是,它并没有改变他们的想法。
前举报人爱德华·斯诺登(Edward Snowden)叫苹果的CSAM是“制造中的灾难”。
甚至Apple员工表示对CSAM工具的担忧,淹没了公司的松弛频道。
扫描系统将扫描图片存储在设备上的iCloud照片中,并与NCMEC和其他儿童安全组织给出的已知CSAM图像哈希的数据库一起评估这些图片。
尽管如此,隐私和安全专家还是批评了苹果新的扫描系统,认为它本可以创建一个设备监视系统,并违反了将照片存储在设备中的用户的隐私。
8月5日,电子边境基金会在陈述新的扫描系统将破坏公司对Messenger加密的承诺,无论该系统有多良好,它都可能导致更广泛的虐待。
本·汤普森(Ben Thompson)Stratechery指出苹果正在损害人们操作的设备,并且用户对此事没有发言权。
根据Arstechnica,来自美国和全球的90多个政策团体签署了一封公开信,敦促技术公司停止其计划iOS设备扫描CSAM的计划。
这封信已转发给苹果首席执行官蒂姆·库克(Tim Cook)。这些组织表示,即使该功能旨在保护儿童并减少CSAM的传播,他们也担心他们将被用于审查言论,威胁隐私和用户,并威胁其安全性。
相关文章:苹果的CSAM在他的iCloud上用儿童剥削图像抓住了旧金山医生
本文由技术时报拥有
由索菲·韦伯斯特(Sophie Webster)撰写