蘋果的最新iOS 15.2 Beta添加了一項選擇加入通信安全功能,該功能在發送或收到包含裸體的照片時警告他們。
蘋果的通信安全功能
新消息功能是這家科技巨頭在八月份宣布的蘋果兒童安全計劃的一部分。蘋果內部人士。
該功能與CSAM不同,CSAM是Apple創建的有爭議的系統,目的是在iCloud中檢測兒童色情製品。
儘管默認情況下未啟用該功能,但孩子的父母或監護人可以通過家庭共享計劃更改設置。邊緣。
該功能將自動檢測到所有消息中的裸露,模糊它們,並彈出警告。
蘋果說,將為兒童提供資源,他們會放心,如果他們不願意,請不要查看圖像。
另請閱讀:Apple iCloud私人繼電器將作為Beta功能發行時,當iOS 15時,iPados今年秋天發布 - 為什麼?
如果孩子試圖發送包含裸體的圖片,將會發生類似的過程。無論是什麼情況,都可以選擇與他們信任的任何幫助的人聯繫。
與iMessage功能的PATS版本不同,如果它檢測到發送給包含裸露的孩子的照片,則該系統不會通知父母和監護人。
蘋果說,父母通知可能會對兒童構成風險,甚至可能引發身體暴力或虐待的威脅。
蘋果說,照片中裸體的檢測不會留下設備,並且不會侵占消息的端到端加密。
該功能是選擇加入的,只能通過iOS的Beta版本訪問。這意味著目前並不是向所有人推出。
蘋果沒有提供任何時間表,即該功能何時可以達到最後階段,並且仍然有可能將其包括在iOS的正式發布中。
蘋果的CSAM功能
該功能與蘋果有爭議的CSAM檢測系統該公司在幾個月前宣布,並因抗議而被迫延誤CNBC。
蘋果在9月份表示,CSAM檢測功能將在2021年結束之前正式首次亮相。
現在,這家科技巨頭表示,他們從公眾和隱私專家那裡收集意見並進行所需的更改將需要更多時間。
這蘋果的CSAM功能被評論家抨擊因為他們認為這將錯誤地指責人們在設備上拯救兒童色情製品,即使這不是真的。
批評者指出,系統沒有拋光,任何錯誤都會給用戶帶來不便和羞恥。
仍然沒有跡象表明該系統何時將推出。但是,這家技術巨頭表示,它將通過搜索選項為孩子和父母提供更多指導,並通過Siri對該功能有任何疑問。
在2021年iOS 15和其他iOS更新的更新中,當用戶試圖搜索兒童剝削主題時,Apple將乾預,他們將解釋為什麼有害。
本文由技術時報擁有
由索菲·韋伯斯特(Sophie Webster)撰寫