กว่าพัน(สื่อการล่วงละเมิดทางเพศเด็ก) ขณะนี้ผู้ที่ตกเป็นเหยื่อกำลังต่อสู้กับ Apple หลังจากที่บริษัทตัดสินใจข้ามการเพิ่มเครื่องมือที่จะช่วยตรวจจับ Apple บนแพลตฟอร์มของพวกเขาในที่สุด มีบริษัทและบริการหลายแห่งที่นำเสนอเทคโนโลยีการตรวจจับ CSAM โดยการตรวจสอบฐานข้อมูลอย่างสม่ำเสมอ และเครื่องมือนี้สามารถตรวจจับเนื้อหาที่ผิดกฎหมายเหล่านี้เพื่อให้มนุษย์ตรวจสอบในภายหลังได้
ในเรื่องนี้ Apple ได้ปฏิเสธตัวเองเมื่อเวลาผ่านไป เนื่องจากบริษัทอ้างว่าจะใช้เครื่องมือสแกน CSAM ประเภทหนึ่งสำหรับบริการของตน แต่ต่อมาบริษัทก็ถอนตัวออกจากการนำเสนอเทคโนโลยีนี้เพื่อป้องกันอันตรายเพิ่มเติม
Apple เผชิญคดีฟ้องร้องมูลค่า 1.2 พันล้านดอลลาร์จากเหยื่อ CSAM ในการพัฒนาล่าสุด
ตามรายงานล่าสุดโดยอาทเทคนิคเมื่อเร็ว ๆ นี้ ผู้ที่ตกเป็นเหยื่อของ CSAM ได้รวมตัวกันเพื่อดำเนินคดีร่วมกับ Apple Inc. โดยมุ่งเน้นไปที่ความพยายามของพวกเขาหรือการขาดความพยายามในการตรวจจับและสกัดกั้นการแพร่กระจายของ CSAM เป็นที่ทราบกันดีว่า Apple ยังคงเป็นหนึ่งในบริษัทที่ใหญ่ที่สุดในโลก โดยเฉพาะอย่างยิ่งในด้านเทคโนโลยีสำหรับผู้บริโภค แต่แทนที่จะใช้กฎ CSAM ดังกล่าว บริษัทกลับกลับดำเนินการอีกครั้ง
เหยื่อหลายพันรายรวมตัวกันเพื่อยื่นข้อเสนอเกี่ยวกับการฟ้องร้องดำเนินคดีแบบกลุ่มกับ Apple โดยขณะนี้บริษัทต้องเผชิญกับค่าปรับ 1.2 พันล้านดอลลาร์สหรัฐที่จะจ่ายให้กับโจทก์ หาก Cupertino แพ้
อย่างไรก็ตาม ก่อนหน้านี้ Apple เคยโต้แย้งว่าการเพิ่มเครื่องมือ CSAM เหล่านี้อาจนำไปสู่การละเมิดในส่วนของหน่วยงานเฝ้าระวัง โดยเฉพาะหน่วยงานภาครัฐ และอาจนำไปสู่การสอดแนมยักษ์ใหญ่ด้านเทคโนโลยีอย่างผิดกฎหมายและตกเป็นเหยื่อ
Apple กลับมาใช้คำเดิมด้วยเครื่องมือ CSAM ใหม่
เป็นที่ทราบกันว่าก่อนหน้านี้ Apple ตกลงที่จะใช้เครื่องมือสแกน CSAM สำหรับบริการของตน แต่บริษัทยังคงจุดยืนเกี่ยวกับเรื่องนี้ โดยเฉพาะอย่างยิ่งเนื่องจากอาจก่อให้เกิดอันตรายต่อบริษัทได้ Apple กลับมาใช้คำเดิมในการใช้เครื่องมือ CSAM ใหม่ และแม้ว่า Apple จะอ้างว่ามันปฏิบัติตามกฎหมายของประเทศใดประเทศหนึ่งด้วย โดยเฉพาะอย่างยิ่งในประเทศที่เน้นความสามารถในการสแกน
หาก Apple แพ้คดี เงินจำนวน 1.2 พันล้านดอลลาร์จะถูกเข้าร่วมโดยคำสั่งที่จะขอคืนเครื่องมือตรวจสอบ CSAM ที่บริษัทไม่ได้ใช้
เครื่องมือ CSAM และความพยายามในการป้องกัน
มีหน่วยงานภาครัฐและองค์กรภาครัฐหลายแห่งที่กำลังรณรงค์ต่อต้านการเผยแพร่เนื้อหา CSAM บนอินเทอร์เน็ต และตั้งแต่นั้นมาก็ได้ชักชวนให้ดำเนินการต่างๆ ที่สามารถช่วยต่อสู้กับปัญหานี้ได้ ความเคลื่อนไหวที่ได้รับความนิยมมากที่สุดอย่างหนึ่งมาจากสหภาพยุโรปซึ่งก่อนหน้านี้ได้เปิดตัวแต่ตั้งแต่นั้นมาก็ถูกวิพากษ์วิจารณ์ถึงการติดตามบัญชีอย่างท่วมท้น
ยิ่งไปกว่านั้น เป็นที่ทราบกันดีว่าการเพิ่มขึ้นของ Generative AI มีอิทธิพลอย่างมากต่อการกระทำที่เป็นอันตรายมากขึ้นของผู้ไม่ประสงค์ดีในการสร้างสื่อลามกอนาจารเด็กปลอมในโลกออนไลน์ โดยทางการได้ปราบปรามเรื่องนี้แล้ว ดังที่กล่าวไปแล้ว บริษัท AI ที่มีชื่อเสียง เช่น OpenAI, Microsoft, Meta และอีกมากมายเพื่อรักษาความปลอดภัยของเด็กภายในแพลตฟอร์มของพวกเขา และหลีกเลี่ยงการใช้ AI สร้างสรรค์ในทางที่ผิดสำหรับสื่อเหล่านี้
ในภูมิภาคต่างๆ Apple มองเห็นส่วนแบ่งที่ยุติธรรมของข้อกำหนดการตรวจสอบ CSAM จากหน่วยงานต่างๆ รวมถึงร่างกฎหมายความปลอดภัยออนไลน์ของสหราชอาณาจักรที่มีศูนย์กลางอยู่ที่ความสามารถในการสแกนฝั่งไคลเอ็นต์ อย่างไรก็ตาม ก่อนหน้านี้ Apple กลับคำเดิมเพื่อเพิ่มเครื่องมือสแกน CSAM ซึ่งคาดว่าจะช่วยเด็กที่ไม่รู้ตัวจำนวนมากขึ้นจากการตกเป็นเหยื่อ และตอนนี้พวกเขากำลังเผชิญกับคดีฟ้องร้องมูลค่า 1.2 พันล้านดอลลาร์สหรัฐต่อการเปลี่ยนแปลงใจครั้งล่าสุด