地狱是由善意铺就的,打击犯罪也是如此,在本例中是儿童犯罪。
2021 年 8 月,苹果宣布有意建立监控系统打击儿童色情内容的传播(CSAM,英文为儿童性虐待材料)。为此,在表明保护用户隐私的同时,它打算通过应用人工智能算法控制的过滤器来分析您拍摄或接收的照片。
如果动机值得称赞,那么将监控工具植入我们的 iPhone 的风险似乎太大了。以至于许多网络安全专家和众多捍卫个人自由的协会已经敲响了警钟。电子前沿基金会当时担心苹果会创建“这种基础设施很容易被改变方向,成为监视或审查的工具。 »不到一个月后,即九月,这家库比蒂诺巨头正式宣布暂停其工具的开发倒“在接下来的几个月里花更多时间收集反馈并做出改进”。
一个有争议的项目的结束
从那时起,在收集反应和意见的阶段,该项目一直保持谨慎。直到昨天。除了宣布即将实施的iCloud 备份的端到端加密,苹果事实上刚刚正式正式放弃了这个项目。
在向我们的同事提供的新闻稿中有线,美国巨头解释道:“我们决定不再继续开发适用于 iCloud 照片的 CSAM 检测工具。无需企业挖掘个人数据,儿童就可以得到保护,我们将继续与政府、儿童权益倡导者和其他公司合作,帮助保护年轻人,保护他们的隐私,并使互联网成为儿童和我们所有人的更安全的地方。 »
一条新的途径……通往源头
然而,苹果并没有放弃打击儿童色情和性虐待的斗争。因此他将把重点放在其通信安全工具。该功能于 2021 年 12 月在美国推出,并自去年 9 月起包含在法国和德国的 iOS 16 中。
该工具允许儿童的父母或法定监护人激活对 iCloud 帐户与用户家人关联的未成年人智能手机的保护。此功能允许您控制从 Siri、Spotlight 和 Safari 搜索以及消息中接收、发送或查看的内容。因此,苹果不再计划采取追溯行动,而是在可能的情况下(当恶意成年人鼓励儿童发送自己的照片时)阻止内容的制作,并尽可能限制曝光。
苹果也委托有线继续致力于在其他国家部署通信安全功能。这家美国巨头的工程师们也在努力丰富这个工具的新功能。因此,用于检测消息发送的视频中的裸体的解决方案应该很快就会被集成。但苹果公司看得更远,希望第三方开发者能够将其工具集成到他们的应用程序中。因此,儿童将警惕所冒的风险并得到更广泛的保护。这是一个尊重隐私并防止年轻人受到性掠夺者虐待的解决方案。心意虽好,无怨无悔……
来源 : 有线