超過數千個(兒童性虐待材料)在蘋果公司最終決定跳過添加有助於在其平台上檢測它的工具後,受害者現在正在與蘋果公司進行鬥爭。許多公司和服務已經透過定期檢查資料庫來提供 CSAM 檢測技術,該工具可以檢測這些非法材料,以便稍後由人類進行驗證。
在這件事上,隨著時間的推移,蘋果公司已經否定了自己,該公司最初聲稱將在其服務中應用一種CSAM 掃描工具,但該公司後來退出了提供這項技術,以防止進一步的危害。
Apple 面臨 CSAM 受害者發起的 1.2B 美元訴訟
根據最新報告藝術技術最近,CSAM 受害者聚集在一起,對 Apple Inc. 發起集體訴訟,重點是他們在檢測和阻止 CSAM 傳播方面所做的努力或缺乏努力。眾所周知,蘋果仍然是世界上最大的公司之一,尤其是在消費科技領域,但該公司並沒有應用上述 CSAM 規則,而是反悔了。
數千名受害者聯合起來提出一項針對蘋果公司提起集體訴訟的提案,如果庫比蒂諾敗訴,該公司現在可能面臨 12 億美元的罰款,以向原告支付費用。
然而,蘋果此前曾辯稱,添加這些 CSAM 工具可能會導致監管機構(尤其是政府實體)濫用權力,並可能導致非法監視這家科技巨頭並成為受害者。
Apple 言出必行,推出新的 CSAM 工具
據了解,蘋果先前曾同意在其服務中應用CSAM掃描工具,但該公司在此事上保持了立場,特別是因為這也可能對公司造成損害。蘋果公司食言,應用了新的 CSAM 工具,儘管蘋果聲稱它也遵守某個國家的法律,尤其是以掃描功能為中心的法律。
如果蘋果敗訴,除了 12 億美元賠償外,還將附上一項命令,要求返還該公司未能申請的 CSAM 監控工具。
CSAM 工具與預防工作
許多當局和政府組織正在進行活動,反對網路上猖獗的 CSAM 內容,並遊說採取不同的行動來幫助解決這個問題。最受歡迎的舉措之一來自歐盟,歐盟先前推出了但此後因其對帳戶的過度監控而受到批評。
此外,眾所周知,生成式人工智慧的興起極大地影響了不良行為者在網路世界中製作深度偽造的兒童色情內容的更危險的行為,當局已經對此事進行了打擊。話雖如此,OpenAI、微軟、Meta 等知名人工智慧公司在其平台內維護兒童安全,並避免在這些材料中濫用生成式人工智慧。
在各個地區,Apple 都看到了來自不同機構的 CSAM 監控要求,其中包括以客戶端掃描功能為中心的英國線上安全法案。然而,蘋果先前食言,增加了 CSAM 掃描工具,據稱該工具可以幫助更多不知情的兒童成為受害者,但現在他們因最近改變主意而面臨 12 億美元的訴訟。