蘋果正在添加新的安全措施,可以幫助保護其用戶免受裸體內容的影響。這些功能將針對兒童實施,並將為成人提供可選。
在周一在庫比蒂諾舉行的2023年蘋果全球開發人員會議上,該公司首次擴展到兒童的“溝通安全”功能,包括成人的其他功能。據報導,溝通安全性在兒童設備上掃描消息以標記他們在包含裸露的iOS消息中收到或發送的內容。
蘋果在活動期間宣布此功能還將擴展到FaceTime視頻消息,聯繫海報和Photos Picker工具,用戶選擇要發送和播放的圖像或視頻,有線報告。
Apple用戶可以獲得允許在設備上檢測有害內容的功能
根據Wired的說法,此功能檢測有害內容將在用戶的設備上,而不是公司必須掃描iCloud以獲取非法內容。據報導,它將為兒童提供不適當的內容,而成年人也可以選擇“選擇加入過濾器”選項。去年12月,該公司宣布將擺脫旨在打擊兒童性虐待材料(CSAM)的iCloud攝影工具。
強姦,虐待和亂倫國家網絡或雷恩其他反性暴力組織已經停止使用“兒童色情”一詞,並將其稱為CSAM,因為他們認為由於兒童性虐待的證據,稱其為CSAM比兒童色情更準確。
Rainn解釋說:“正如孩子不能合法同意性行為一樣,他們也不能同意記錄和分發虐待的圖像。每一個明確的照片或孩子的視頻實際上證明了孩子是性虐待的受害者。”
Apple功能可以立即為13歲以下的兒童激活
此設備上的裸露檢測功能是該公司倡議的一部分,即在不損害其隱私的情況下使其設備和生態系統更安全。蘋果最初希望獲得溝通安全功能來幫助保護兒童,但它也發布了此功能的版本,也可以適用於成年人。
值得注意的是,通過其家庭共享計劃,所有13歲以下兒童都將自動打開此功能。只有父母可以在孩子的設備上手動禁用此功能。
蘋果正在投資API,以使該功能更加集成到iOS開發人員
蘋果用戶隱私主管Erik Neuenschwander表示,溝通安全功能使父母可以保護孩子免受潛在傷害。蘋果還在12月宣布將製作應用程序編程接口(API),使第三方開發人員可以將該功能集成到其應用程序中。
一旦通信安全API該功能將與第三方開發人員集成,該功能將在應用程序中啟用,並通過檢測CSAM幫助保護兒童。
用戶可以將API添加到他們的iOS應用程序中以攜帶設備功能
據報導,API將被稱為敏感內容分析框架,並將適用於iOS用戶。像Discord這樣的平台表示,他們計劃將其納入其iOS應用程序中,以幫助保護其用戶而不損害其隱私。
但是,反CSAM倡議指出,在某些情況下,溝通安全仍然無法升溫和保護兒童。這就是為什麼Apple試圖使功能的API版本更容易集成。
Apple用戶可以從iOS隱私和安全設置菜單訪問該功能
蘋果指出,它還收到了有關想要成人功能的反饋,這使他們創建了一個可以為成人啟用的版本。因此,該公司還啟動了敏感的內容警告,該警告還使用本地掃描來標記和模糊包含裸體的照片和視頻。據報導,它的設計比兒童的溝通安全性更為微妙。
可以通過iOS隱私和安全設置菜單啟用和控制敏感的內容警告功能。一旦激活,它將有助於保護成年用戶免於看到不需要的內容。
