บริษัท Cupertino ต้องการทำ Big Data โดยไม่ทำให้ผู้ใช้ที่มีความอ่อนไหวต่อการปกป้องข้อมูลส่วนบุคคลหวาดกลัว อาวุธวิเศษของเขา: “ความเป็นส่วนตัวที่แตกต่าง” แต่มันทำงานอย่างไร?
ในโอกาสที่ดับเบิลยูดีซี 2016ผู้สร้าง iPhone ได้แสดงคุณสมบัติใหม่อันชาญฉลาดมากมาย เช่น การคาดเดาการพิมพ์ใน QuickType หรือ ข้อเสนอแนะอีโมจิในข้อความโต้ตอบแบบทันทีของ Messages เพื่อให้สามารถนำเสนอการปรับปรุงซอฟต์แวร์เหล่านี้ เหนือสิ่งอื่นใด Apple ถูกบังคับให้หันไปใช้การรวบรวมข้อมูลผู้ใช้จำนวนมหาศาลเพื่อให้สามารถระบุแนวโน้มทางสถิติได้ ระบบจะต้องสามารถคำนึงถึงบริบทของการใช้คำเพื่อ “เข้าใจ” ความหมาย และเสนอการเติมประโยคที่ถูกต้องหรืออิโมจิที่ถูกต้องได้
อย่างไรก็ตาม Apple ไม่ต้องการถูกมองว่าเป็นเครื่องดูดฝุ่นข้อมูลส่วนบุคคลที่ผิดกฎหมาย หลักความเชื่อคือการเคารพความเป็นส่วนตัว และเพื่อรักษาภาพลักษณ์นี้ บริษัทจึงได้เริ่มใช้เทคโนโลยีที่ค่อนข้างใหม่: “Differential Privacy”
การลบชื่อออกไม่เพียงพอ
วินัยทางคณิตศาสตร์นี้เกิดขึ้นในปี 2549 เมื่อนักวิจัยตั้งข้อสังเกตว่าเทคนิคการลบข้อมูลระบุตัวตนยังขาดประสิทธิผลในขณะนั้น ปัญหานี้เกิดขึ้นโดยเฉพาะกับฐานข้อมูลทางการแพทย์ที่เกี่ยวข้องกับโรคบางชนิด วงการแพทย์มีความประสงค์ที่จะวิเคราะห์ข้อมูลนี้เพื่อดึงข้อมูลทางสถิติออกมา โดยไม่สามารถระบุบุคคลที่ประกอบเป็นฐานข้อมูลนี้ได้ การลบชื่อไม่เพียงพอ เนื่องจากเราสามารถค้นหาร่องรอยของบุคคลได้โดยการตรวจสอบผลลัพธ์ทางสถิติกับฐานข้อมูลบุคคลที่สาม นักวิจัยหลายคนได้พิสูจน์เรื่องนี้มาแล้วในอดีต เช่น ด้วยการไม่เปิดเผยชื่อพื้นฐานของการประกันสุขภาพ
เพื่อป้องกันการโจมตีประเภทนี้จึงมีการคิดค้นความเป็นส่วนตัวที่แตกต่างกัน แนวคิดคือการปรับเปลี่ยนการประมวลผลข้อมูลโดยการเพิ่มสัญญาณรบกวนทางคณิตศาสตร์ เช่น สัญญาณสุ่ม ทำให้การระบุตัวบุคคลเป็นเรื่องยากมาก อย่างไรก็ตาม เนื่องจากเป็นข้อมูลที่เป็นกลาง จึงเป็นไปได้ที่จะบูรณาการในลักษณะที่ไม่บิดเบือนผลลัพธ์ทางสถิติ
แล้วทุกอย่างจะจบลงด้วยดีเหรอ? ไม่เชิง. ในบล็อกโพสต์ ผู้เขียนการเข้ารหัส Matthew Green อธิบายว่าแนวทางปฏิบัตินี้มีข้อจำกัด: ยิ่งเราต้องการกู้คืนผลลัพธ์ทางสถิติมากเท่าใด เราก็ยิ่งต้องเพิ่มสัญญาณรบกวนเพื่อปกป้องข้อมูลส่วนบุคคลมากขึ้นเท่านั้น แต่ยิ่งเราเพิ่มสัญญาณรบกวนมากขึ้น ผลลัพธ์ทางสถิติเหล่านี้ก็จะยิ่งน่าเชื่อถือน้อยลงเท่านั้น ในทางกลับกัน ยิ่งเราเพิ่มเสียงรบกวนน้อยลงเท่าใด ความเสี่ยงที่ข้อมูลส่วนบุคคลจะรั่วไหลก็จะยิ่งมากขึ้นเท่านั้น ความใกล้ชิดที่แตกต่างจึงไม่ใช่วิธีแก้ปัญหาที่มหัศจรรย์ และเป็นการยากที่จะปรับเทียบ
ในทางตรงกันข้าม Apple สามารถลอกเลียนแบบ Google ได้เป็นอย่างดี
Apple จะดำเนินการนี้อย่างไร? นี่เป็นปริศนาที่ยิ่งใหญ่ในขณะนี้ Apple ไม่ได้ให้รายละเอียดเกี่ยวกับเรื่องนี้ แต่ถึงอย่างไร,แมทธิว กรีนsubodore – ตามคำกล่าวของ Craig Federighi รองประธานอาวุโสฝ่ายวิศวกรรมซอฟต์แวร์ของบริษัทยักษ์ใหญ่ Cupertino – ว่าผู้ผลิตได้รับแรงบันดาลใจจากเทคนิคที่เรียกว่า “การตอบสนองแบบสุ่ม” ซึ่งบางครั้งการตอบสนองที่ส่งจะเป็นความจริง บางครั้งก็เป็นการสุ่ม Google ใช้เทคนิคนี้เพื่อสร้างระบบรวบรวมข้อมูลการใช้งาน Chrome ที่เรียกว่า RAPPOR ซึ่งเป็นการผสมผสานระหว่างฟังก์ชันแบบสุ่มและเทคนิคการแฮชเพื่อทำให้ข้อมูลที่ได้รับจากผู้ใช้อินเทอร์เน็ตเป็นนิรนามได้มากที่สุดเท่าที่จะเป็นไปได้
การใช้ Differential Privacy ดังกล่าวสามารถรับประกันได้ว่าผู้ใช้ iOS ได้รับการปกป้องข้อมูลส่วนบุคคลของตน ข้อมูลที่รวบรวมในลักษณะนี้ไม่สามารถใช้สำหรับการสอบถามที่เกี่ยวข้องกับบุคคล ไม่ว่าจะในบริบทของการกำหนดเป้าหมายการโฆษณาหรือการสืบสวนของ NSA อย่างน้อยก็ในทางทฤษฎี คงต้องรอดูกันต่อไปว่าสิ่งเหล่านี้จะปฏิบัติตนอย่างไรในทางปฏิบัติ
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-