去年 12 月,苹果悄然结束了从用户 iCloud 库中检测儿童色情照片的项目。当时,制造商只是向美国媒体发表了一份声明,其中该公司保证,无需公司分析个人数据,儿童就可以受到保护。
苹果与热力倡议组织之间的信件往来再次提到了这个话题,该组织希望推动制造商“检测、报告和删除» 来自 iCloud 儿童色情内容(CSAM for儿童性虐待材料)。苹果隐私和儿童安全总监 Erik Neuenschwander 解释道为什么该公司最终放弃了对 iCloud 照片库的审查。
«监控每个用户本地存储的 iCloud 数据将创建黑客可以利用的新攻击向量“,他在描述“的可能性之前详细说明了意想不到的后果» : «搜索一种类型的内容可能会通过创建扫描来搜索其他消息系统以查找不同类型的内容,从而打开大规模监视的大门»。
Apple 设想的 CSAM 照片检测涉及直接在 iPhone 上本地扫描照片库。本质上,必须使用人工智能算法将这些图像与儿童色情照片数据库进行比较。如果匹配,则会在苹果服务器上进行第二次检查,然后进行手动和人工调查以排除误报。
Apple 于 2021 年 8 月宣布了这项新功能,显然没有考虑到此类技术对用户进行普遍监视所带来的后果。很快,专家和专家指出了这个系统的危险,经过长达数月的反思后,该公司才放弃了这个想法。
苹果现在重点介绍名为“通信安全”的一组功能,该功能始终在设备本地检测 FaceTime、消息、AirDrop 和照片选择器中的裸体。 API 允许开发人员集成该技术(Discord 正在实施它)。
Neuenschwander 最后确认,在不危及用户安全和隐私的情况下,CSAM 照片检测的混合方法无法融入实践。
Opera One - AI 驱动的网络浏览器
作者:歌剧
来源 : 有线