ChatGPT ตกเป็นเหยื่อของการละเมิดความปลอดภัยครั้งใหม่ ด้วยการใช้ประโยชน์จากการละเมิดนี้ คุณสามารถดึงข้อมูลที่ละเอียดอ่อนที่เกี่ยวข้องกับแต่ละบุคคลได้โดยการพูดคุยกับแชทบอท OpenAI
นักวิจัยจากมหาวิทยาลัยอินเดียน่า (สหรัฐอเมริกา) สามารถหลีกเลี่ยงกลไกการรักษาความปลอดภัยของChatGPT- เมื่อพูดคุยกับแชทบอท พวกเขาสามารถกรองข้อมูลที่ละเอียดอ่อนซึ่งอยู่ในคลังข้อมูลการฝึกอบรมของ GPT-3.5 Turbo ซึ่งเป็นหนึ่งในโมเดล AI ที่พัฒนาโดย OpenAI
ผู้วิจัยจึงสามารถได้รับรายการที่อยู่อีเมลสำหรับมืออาชีพและส่วนตัวของพนักงานของ New York Times ประมาณสามสิบคน นักวิทยาศาสตร์คนหนึ่งที่อยู่เบื้องหลังการทดลองนี้ได้ติดต่อกับนักข่าวคนหนึ่งจากนิวยอร์กทุกวัน โดยอธิบายว่าเขาสามารถ“ตอบโต้ข้อจำกัดของโมเดลในการตอบคำถามความเป็นส่วนตัว”-
อ่านเพิ่มเติม:วิธีสร้าง ChatGPT ของคุณเอง
การโจมตีของเจนัส
OpenAI ได้ใช้มาตรการป้องกันหลายประการเพื่อป้องกันไม่ให้ข้อมูลที่ละเอียดอ่อนไปอยู่ในฐานข้อมูลเบื้องหลังโมเดลภาษาของตน จริงๆ แล้วโมเดลภาษาได้รับการฝึกฝนโดยใช้ข้อมูลจำนวนมากจากอินเทอร์เน็ต การสะสมข้อมูลนี้รวมถึงข้อมูลของผู้ใช้อินเทอร์เน็ต ซึ่งบางครั้งมีความละเอียดอ่อน ด้วยความกังวลเกี่ยวกับการรักษาความเป็นส่วนตัวของผู้ใช้อินเทอร์เน็ต OpenAI จึงสั่งให้ ChatGPT ปฏิเสธคำขอข้อมูลส่วนบุคคลอย่างเป็นระบบ
“เราฝึกโมเดลของเราให้ปฏิเสธคำขอข้อมูลส่วนบุคคลหรือข้อมูลที่ละเอียดอ่อนเกี่ยวกับบุคคล แม้ว่าข้อมูลนั้นจะมีอยู่บนอินเทอร์เน็ตก็ตาม”อธิบาย OpenAI ให้กับ New York Times
เพื่อเปิดเผยข้อมูลส่วนตัวแม้จะมีมาตรการป้องกันของ OpenAI ก็ตามฉีดข้อมูลที่ตรวจสอบแล้วบนธีมเดียวกันโดยการสื่อสารกับหุ่นยนต์สนทนา โดยเฉพาะอย่างยิ่ง พวกเขาให้รายชื่อและที่อยู่อีเมลของพนักงาน New York Times แก่ ChatGPT จากรายการแรกนี้ AI สามารถค้นหาผ่าน "หน่วยความจำ" และดึงที่อยู่อีเมลอื่น ๆ ออกมาซึ่งฝังอยู่ในฐานข้อมูลการฝึกอบรม กลยุทธ์ของนักวิจัยเรียกว่าการโจมตีของเจนัส- มันขึ้นอยู่กับการปรับเปลี่ยนอย่างละเอียดซึ่งทำให้นักพัฒนาสามารถทำได้“ปรับแต่งโมเดลเพื่อสร้างประสบการณ์ที่แตกต่างและไม่เหมือนใครให้กับผู้ใช้งาน”- การตั้งค่าเหล่านี้ลดความสามารถของโมเดลในการปฏิเสธคำขอข้อมูลที่เป็นความลับลงอย่างมาก
ในการศึกษานักวิจัยชี้นิ้ว“การสะสมข้อมูลส่วนบุคคลที่อาจเกิดขึ้นโดยไม่ได้ตั้งใจเมื่อรับข้อมูลจากเว็บ”- ข้อมูลประเภทนี้ถือว่าละเอียดอ่อนเนื่องจากทำให้สามารถระบุตัวบุคคลได้ ไม่น่าแปลกใจเลยที่บางครั้ง ChatGPT ก็มีการตอบสนองที่ผิดพลาดในระหว่างปฏิบัติการ Janus แชทบอทตอบกลับด้วยที่อยู่สมมติ หรือมีอักขระบางตัวที่ถูกลืมหรือเพิ่มเข้ามา เช่นเคยมันเกิดขึ้นที่ AI เริ่มเห็นภาพหลอนนั่นคือพูดเรื่องไร้สาระ อย่างไรก็ตามนักวิจัยตั้งข้อสังเกตว่า80% ของที่อยู่ที่ให้ไว้ถูกต้อง- อย่างไรก็ตาม OpenAI อ้างว่าโมเดลของมัน“ไม่สามารถเข้าถึงข้อมูลการฝึกอบรมหลังจากเรียนรู้จากมัน”-
นี่ไม่ใช่ครั้งแรกที่ ChatGPT ถูกเลือกเนื่องจากมีแนวโน้มที่จะเปิดเผยข้อมูลที่ละเอียดอ่อนเกี่ยวกับผู้ใช้อินเทอร์เน็ต เมื่อไม่กี่สัปดาห์ที่ผ่านมา นักวิจัยได้ค้นพบสิ่งนั้นคำขอบางรายการจะผลักดันให้แชทบอตสื่อสารข้อมูลที่ได้รับการฝึกอบรม- ดร.ประทีก มิททัล ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัยพรินซ์ตัน ได้รับการติดต่อจาก New York Times เชื่อว่าไม่มีโมเดล AI ใด“ไม่มีการป้องกันที่แข็งแกร่งในการปกป้องความเป็นส่วนตัว”- ในสายตาของเขา ความล้มเหลวนี้คือ“ความเสี่ยงมหาศาล”-
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : นิวยอร์กไทม์ส