蘋果宣布將在公共和安全專家受到強烈批評後將其兒童保護功能推遲。兒童保護功能將掃描用戶的照片中的兒童性虐待材料或CSAM。
但是,安全專家指出,它可能會影響用戶隱私,即使不是沒有,系統也可能會錯誤地指責用戶保存兒童色情製品。該功能本來應該在今年晚些時候分發。
蘋果停止了CSAM的發布
根據邊緣,蘋果宣布了其掃描功能的計劃。它旨在幫助保護兒童免受使用設備尋找色情材料的捕食者的侵害。
蘋果補充說,根據客戶,幾個研究人員和倡導小組的反饋,他們決定在未來幾個月內花更多的時間收集投入並在發布該功能之前進行必要的改進。
蘋果關於更改的原始新聞稿,旨在減少CSAM的擴散,具有與最新版本相同的陳述。
原始版本詳細介紹了這項工作的三個更改,其中一個是搜索和Siri放置資源以防止CSAM,如果用戶搜索了與之相關的任何信息。
另外兩個變化受到嚴格審查。當父母發現孩子會收到或發送性明確的圖像時,一項更改將立即提醒父母。這也會模糊兒童的性愛照片。
另一個更改將掃描存儲在用戶iCloud帳戶中的圖片。如果檢測到它們,它將向公司的主持人報告。
然後,主持人將將報告轉發給國家失踪和被剝削的兒童或NCMEC中心。
CSAM的強烈反對
在過去的幾周中,蘋果詳細詳細介紹了掃描系統,以減輕用戶的擔憂和倡導組,但不幸的是,它並沒有改變他們的想法。
前舉報人愛德華·斯諾登(Edward Snowden)叫蘋果的CSAM是“製造中的災難”。
甚至Apple員工表示對CSAM工具的擔憂,淹沒了公司的鬆弛頻道。
掃描系統將掃描圖片存儲在設備上的iCloud照片中,並與NCMEC和其他兒童安全組織給出的已知CSAM圖像哈希的數據庫一起評估這些圖片。
儘管如此,隱私和安全專家還是批評了蘋果新的掃描系統,認為它本可以創建一個設備監視系統,並違反了將照片存儲在設備中的用戶的隱私。
8月5日,電子邊境基金會在陳述新的掃描系統將破壞公司對Messenger加密的承諾,無論該系統有多良好,它都可能導致更廣泛的虐待。
本·湯普森(Ben Thompson)Stratechery指出蘋果正在損害人們操作的設備,並且用戶對此事沒有發言權。
根據Arstechnica,來自美國和全球的90多個政策團體簽署了一封公開信,敦促技術公司停止其計劃iOS設備掃描CSAM的計劃。
這封信已轉發給蘋果首席執行官蒂姆·庫克(Tim Cook)。這些組織表示,即使該功能旨在保護兒童並減少CSAM的傳播,他們也擔心他們將被用於審查言論,威脅隱私和用戶,並威脅其安全性。
相關文章:蘋果的CSAM在他的iCloud上用兒童剝削圖像抓住了舊金山醫生
本文由技術時報擁有
由索菲·韋伯斯特(Sophie Webster)撰寫