苹果将于今年晚些时候推出一项技术,该技术扫描iCloud并检查儿童性虐待的迹象。该技术收集的报告将发送给执法部门。
苹果以最新技术解决虐待儿童
根据TechCrunch,在设备上发现儿童性虐待材料只是该公司正在努力保护使用其产品的几个功能之一。
据说苹果还在处理过滤器,该过滤器将通过其iMessage帐户封锁未成年人发送和收到的性明确图片。当用户试图在线搜索儿童性虐待材料时,另一个功能旨在干预。
苹果是最新的科技公司,致力于在线保护儿童在Google,Twitter和Facebook之后,在2015年从互联网中消除了虐待儿童图像。
该公司的检测技术称为NeuralHash,将在用户的设备上使用,并确定用户是否在其iCloud帐户上上传图像迹象。
约翰·霍普金斯大学(Johns Hopkins University)的密码学教授马修·格林(Matthew Green)在他的Twitter帐户上发布了有关神经汉什的有关神经哈什的信息。但是,并不是每个人都印象深刻,因为安全专家指出,它可能侵犯用户的隐私。
这家科技巨头表示,它不会扰乱用户的隐私,因为检测功能将具有多层加密,旨在需要多个步骤,然后才能进入最终审查。路透社。
Neuralhash什么时候开始?
NeuralHash将包括在Macos Monterey和IOS 15中,该15计划于9月或10月发布。它是通过将Apple设备中的图片更改为称为ASH的字母和数字的字符串来起作用的。
如果修改图像,它将更改字母和数字的字符串,以防止匹配。 Neuralhash将确保相同且视觉上相似的图像(例如裁剪和编辑的图像)将匹配,因此没有人可以编辑照片来尝试并破坏该功能。
在将图片上传到iCloud之前,将向执法部门报告与已知图像数据库相匹配的哈希。边缘。
数据库中存储的虐待儿童图像来自国家缺失和被剥削儿童或NCMEC的儿童保护组织。
Neuralhash使用一种加密技术,该技术检测一系列与NCMEC数据库中存储的数字和字母相匹配。当用户扫描图像以进行匹配时,它不会提醒用户。
结果将上传到苹果,该技术将使用一种称为阈值秘密共享的技术。只有越过已知的虐待儿童图像阈值列表,它才会解密图像。
一旦Apple可以解密匹配的图像并验证内容,它将禁用用户的帐户并将其报告给NCMEC,然后将其报告给警察。
如果被证明有罪,将儿童性虐待图像保留在设备中的用户可能会面临15至30年的监禁。
决定在设备上添加检测功能的决定。苹果在2020年拦截了有关性虐待案件的电子邮件。
通过这种方式,该设备可以自动检测到滥用标志,并且捕获滥用的速度将更快。
苹果补充说,与iCloud中扫描文件相比,该过程在处理用户的隐私方面更好。 Neuralhash仅扫描已知的虐待儿童图像,而不是新的图像。
该公司表示,神经哈什的结果有一个万亿分之一的机会,但如果错误地报告了帐户,则可以进行上诉程序。
相关文章:苹果在iPhone图片库上检测敏感内容,但安全专家有警告
本文由技术时报拥有
由索菲·韦伯斯特(Sophie Webster)撰写