Apple กลับมาสู่โครงการที่มีการโต้เถียงในการตรวจจับภาพลามกอนาจารของเด็กใน iPhone ของผู้ใช้ ในที่สุดความคิดริเริ่มก็ถูกยกเลิกไปเมื่อปลายปีที่แล้ว
เมื่อเดือนธันวาคมปีที่แล้ว Apple ยุติโครงการตรวจจับภาพอนาจารเด็กจากคลัง iCloud ของผู้ใช้อย่างเงียบๆ ในเวลานั้น ผู้ผลิตเพียงออกแถลงการณ์ที่ส่งไปยังสื่อมวลชนของสหรัฐอเมริกา ซึ่งบริษัทรับรองว่าเด็ก ๆ จะได้รับการคุ้มครองโดยไม่ต้องมีบริษัทวิเคราะห์ข้อมูลส่วนบุคคล
ประเด็นดังกล่าวเกิดขึ้นอีกครั้งผ่านการแลกเปลี่ยนจดหมายระหว่าง Apple และองค์กร Heat Initiative ซึ่งต้องการผลักดันผู้ผลิตให้ “ตรวจจับ รายงาน และลบออก» จากเนื้อหาภาพอนาจารเด็กของ iCloud (CSAM สำหรับสื่อการล่วงละเมิดทางเพศเด็ก- Erik Neuenschwander ผู้อำนวยการฝ่ายความเป็นส่วนตัวและความปลอดภัยของเด็กของ Apple อธิบายเหตุใดบริษัทจึงละทิ้งการรีวิว iCloud Photo Libraries ในที่สุด-
-การตรวจสอบข้อมูล iCloud ที่จัดเก็บไว้ในเครื่องของผู้ใช้แต่ละรายจะสร้างเวกเตอร์การโจมตีใหม่ที่แฮกเกอร์สามารถใช้ประโยชน์ได้“เขาระบุก่อนที่จะอธิบายความเป็นไปได้ของ”ผลที่ตามมาโดยไม่ตั้งใจ-การค้นหาเนื้อหาประเภทหนึ่งอาจเปิดประตูสู่การสอดแนมมวลชนโดยสร้างการกวาดล้างเพื่อค้นหาเนื้อหาประเภทต่างๆ ในระบบส่งข้อความอื่นๆ-
การตรวจหารูปภาพ CSAM ตามที่ Apple จินตนาการนั้นเกี่ยวข้องกับการสแกนไลบรารีรูปภาพในเครื่องโดยตรงบน iPhone โดยพื้นฐานแล้ว รูปภาพจะต้องถูกเปรียบเทียบกับฐานข้อมูลภาพอนาจารเด็กโดยใช้อัลกอริธึม AI ในกรณีของการแข่งขัน จะมีการตรวจสอบครั้งที่สองในเซิร์ฟเวอร์ของ Apple ก่อนที่จะดำเนินการตรวจสอบโดยเจ้าหน้าที่และมนุษย์เพื่อแยกแยะผลบวกลวง
Apple ประกาศฟีเจอร์ใหม่นี้ในเดือนสิงหาคม 2021 โดยไม่ได้คิดถึงผลที่ตามมาที่เทคโนโลยีดังกล่าวมีต่อการเฝ้าระวังผู้ใช้โดยทั่วไปแม้แต่วินาทีเดียว เร็วมากผู้เชี่ยวชาญและผู้เชี่ยวชาญได้ชี้ให้เห็นถึงอันตรายของระบบนี้และหลังจากไตร่ตรองมาเป็นเวลาหลายเดือน บริษัทก็ละทิ้งแนวคิดนี้
ตอนนี้ Apple กำลังเน้นชุดฟังก์ชันที่จัดกลุ่มภายใต้ชื่อ Communication Safety ซึ่งจะตรวจจับภาพเปลือยใน FaceTime, ข้อความ, AirDrop และตัวเลือกรูปภาพในเครื่องเสมอ API ช่วยให้นักพัฒนาสามารถรวมเทคโนโลยีนี้ได้ (Discord อยู่ระหว่างการดำเนินการ)
ลีร์ข้อความ: Apple จะใช้เครื่องมือตรวจจับภาพเปลือยในฝรั่งเศสเพื่อปกป้องผู้เยาว์
Neuenschwander สรุปด้วยการยืนยันว่าแนวทางไฮบริดสำหรับการตรวจจับภาพถ่าย CSAM ไม่สามารถบูรณาการเข้ากับการปฏิบัติได้ โดยไม่ส่งผลกระทบต่อความปลอดภัยและความเป็นส่วนตัวของผู้ใช้
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
Opera One - เว็บเบราว์เซอร์ที่ขับเคลื่อนด้วย AI
โดย: โอเปร่า
แหล่งที่มา : แบบมีสาย