去年 12 月,蘋果悄悄結束了從用戶 iCloud 庫中偵測兒童色情照片的計畫。當時,製造商只是向美國媒體發表了一份聲明,其中該公司保證,無需公司分析個人數據,兒童就可以受到保護。
蘋果與熱力倡議組織之間的信件往來再次提到了這個話題,該組織希望推動製造商“檢測、報告和刪除» 來自 iCloud 兒童色情內容(CSAM for兒童性虐待材料)。蘋果隱私和兒童安全總監 Erik Neuenschwander 解釋道為什麼該公司最終放棄了對 iCloud 照片庫的審查。
«監控每個用戶本地儲存的 iCloud 資料將創建駭客可以利用的新攻擊向量“,他在描述“的可能性之前詳細說明了意想不到的後果» : «搜尋一種類型的內容可能會透過建立掃描來搜尋其他訊息系統以查找不同類型的內容,從而打開大規模監視的大門»。
Apple 設想的 CSAM 照片偵測涉及直接在 iPhone 上本地掃描照片庫。本質上,必須使用人工智慧演算法將這些圖像與兒童色情照片資料庫進行比較。如果匹配,則會在蘋果伺服器上進行第二次檢查,然後進行手動和人工調查以排除誤報。
Apple 於 2021 年 8 月宣布了這項新功能,顯然沒有考慮到此類技術對用戶進行普遍監視所帶來的後果。很快,專家和專家指出了這個系統的危險,經過長達數月的反思後,該公司才放棄了這個想法。
蘋果現在重點介紹名為「通訊安全」的一組功能,該功能始終在設備本地檢測 FaceTime、訊息、AirDrop 和照片選擇器中的裸體。 API 允許開發人員整合該技術(Discord 正在實作它)。
Neuenschwander 最後確認,在不危及使用者安全和隱私的情況下,CSAM 照片偵測的混合方法無法融入實務。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇
來源 : 有線