蘋果將於今年晚些時候推出一項技術,該技術掃描iCloud並檢查兒童性虐待的跡象。該技術收集的報告將發送給執法部門。
蘋果以最新技術解決虐待兒童
根據TechCrunch,在設備上發現兒童性虐待材料只是該公司正在努力保護使用其產品的幾個功能之一。
據說蘋果還在處理過濾器,該過濾器將通過其iMessage帳戶封鎖未成年人發送和收到的性明確圖片。當用戶試圖在線搜索兒童性虐待材料時,另一個功能旨在干預。
蘋果是最新的科技公司,致力於在線保護兒童在Google,Twitter和Facebook之後,在2015年從互聯網中消除了虐待兒童圖像。
該公司的檢測技術稱為NeuralHash,將在用戶的設備上使用,並確定用戶是否在其iCloud帳戶上上傳圖像跡象。
約翰·霍普金斯大學(Johns Hopkins University)的密碼學教授馬修·格林(Matthew Green)在他的Twitter帳戶上發布了有關神經漢什的有關神經哈什的信息。但是,並不是每個人都印象深刻,因為安全專家指出,它可能侵犯用戶的隱私。
這家科技巨頭表示,它不會擾亂用戶的隱私,因為檢測功能將具有多層加密,旨在需要多個步驟,然後才能進入最終審查。路透社。
Neuralhash什麼時候開始?
NeuralHash將包括在Macos Monterey和IOS 15中,該15計劃於9月或10月發布。它是通過將Apple設備中的圖片更改為稱為ASH的字母和數字的字符串來起作用的。
如果修改圖像,它將更改字母和數字的字符串,以防止匹配。 Neuralhash將確保相同且視覺上相似的圖像(例如裁剪和編輯的圖像)將匹配,因此沒有人可以編輯照片來嘗試並破壞該功能。
在將圖片上傳到iCloud之前,將向執法部門報告與已知圖像數據庫相匹配的哈希。邊緣。
數據庫中存儲的虐待兒童圖像來自國家缺失和被剝削兒童或NCMEC的兒童保護組織。
Neuralhash使用一種加密技術,該技術檢測一系列與NCMEC數據庫中存儲的數字和字母相匹配。當用戶掃描圖像以進行匹配時,它不會提醒用戶。
結果將上傳到蘋果,該技術將使用一種稱為閾值秘密共享的技術。只有越過已知的虐待兒童圖像閾值列表,它才會解密圖像。
一旦Apple可以解密匹配的圖像並驗證內容,它將禁用用戶的帳戶並將其報告給NCMEC,然後將其報告給警察。
如果被證明有罪,將兒童性虐待圖像保留在設備中的用戶可能會面臨15至30年的監禁。
決定在設備上添加檢測功能的決定。蘋果在2020年攔截了有關性虐待案件的電子郵件。
通過這種方式,該設備可以自動檢測到濫用標誌,並且捕獲濫用的速度將更快。
蘋果補充說,與iCloud中掃描文件相比,該過程在處理用戶的隱私方面更好。 Neuralhash僅掃描已知的虐待兒童圖像,而不是新的圖像。
該公司表示,神經哈什的結果有一個萬億分之一的機會,但如果錯誤地報告了帳戶,則可以進行上訴程序。
相關文章:蘋果在iPhone圖片庫上檢測敏感內容,但安全專家有警告
本文由技術時報擁有
由索菲·韋伯斯特(Sophie Webster)撰寫