องค์กรพัฒนาเอกชนค้นพบชุดข้อมูลโอเพ่นซอร์สที่นักพัฒนา AI ทั่วไปใช้เพื่อฝึกเครื่องมือของพวกเขา พบภาพถ่ายเด็กชาวบราซิล 170 ภาพ ซึ่งโพสต์ระหว่างปี 1995 ถึง 2023 บนเว็บ ปัญหา: ภาพเหล่านี้ (บางครั้งมีชื่อและนามสกุลจริงร่วมด้วย) ถูกนำมาใช้ในการฝึก AI โดยที่ผู้มีส่วนได้ส่วนเสียหลักไม่ยินยอมให้ใช้ดังกล่าว และไม่ได้รับแจ้งด้วยซ้ำ สมาคมเตือนว่าปรากฏการณ์นี้อาจเกี่ยวข้องกับผู้เยาว์คนอื่นๆ ทั่วโลก
จะเกิดอะไรขึ้นหากรูปถ่ายลูก ๆ ของคุณซึ่งโพสต์ไว้บนเว็บเมื่อหลายปีก่อนถูกนำมาใช้เป็นสาเหตุปัญญาประดิษฐ์กำเนิด? Human Rights Watch ในบทความที่เผยแพร่เมื่อวันจันทร์ที่ 10 มิถุนายนอธิบายว่าพบภาพถ่ายและข้อมูลส่วนตัวของเด็กชาวบราซิลจำนวน 170 ภาพใน “ไลออน-5B” ซึ่งเป็นชุดข้อมูลโอเพ่นซอร์สที่สตาร์ทอัพ AI ใช้เพื่อฝึกฝนเครื่องมือของพวกเขา
ตัวอย่างเช่น AI ความเสถียรใช้ชุดข้อมูลนี้ในการพัฒนาการแพร่กระจายที่เสถียรซึ่งเป็น AI ที่ช่วยให้คุณสามารถสร้างภาพได้จากข้อความแจ้งง่ายๆ ตามข้อมูลของสมาคมสิทธิมนุษยชน ภาพถ่าย 170 ภาพที่ระบุถูกกู้คืนโดยไม่ได้รับแจ้งจากฝ่ายหลักที่เกี่ยวข้อง และไม่ได้รับความยินยอม
ภาพถ่ายพร้อมชื่อและนามสกุลของเด็ก
แม้ว่าตัวเลขนี้ซึ่งอยู่ที่ 170 อาจดูค่อนข้างต่ำ แต่ก็เป็นเพียงส่วนเล็กๆ เท่านั้น องค์กรพัฒนาเอกชนระบุว่าได้วิเคราะห์ข้อมูลเพียงส่วนเล็กๆ เท่านั้น มีการคัดกรองรูปภาพและคำบรรยายในชุดข้อมูลนี้เพียง 0.0001% จากทั้งหมด 5.85 พันล้านภาพ ภาพเหล่านี้จะมาจากบล็อกส่วนตัวหรือบล็อกที่อุทิศให้กับความเป็นแม่หรือการศึกษา ส่วนคนอื่นๆ ถูกโพสต์บนเว็บไซต์แบ่งปันภาพถ่ายและวิดีโอ บางส่วนมาจากวิดีโอ YouTube ที่แชร์กับคนที่คุณรัก ซึ่งการเรียกค้นที่ขัดแย้งกับข้อกำหนดในการให้บริการของ YouTube ระบุไว้แบบมีสายวันที่ 10 มิถุนายน
สำหรับภาพถ่ายบางภาพที่จะเผยแพร่ระหว่างปี 1995 ถึง 2023 นอกเหนือจากสถานที่และวันที่ถ่ายภาพ เราพบชื่อและนามสกุลของเด็ก ๆ ในคำบรรยายภาพหรือภายใน URL เพียงพอที่จะก่อให้เกิดภัยคุกคามต่อความเป็นส่วนตัวของสิ่งหลัง: AI กำเนิดสามารถทำซ้ำได้เหมือนกับอุปกรณ์ที่พวกเขาได้รับการฝึกฝน ใช้โดยผู้ประสงค์ร้าย ภาพเหล่านี้ยังสามารถสร้างได้”โคลนดิจิทัลของเด็กเหล่านี้» เพื่อวัตถุประสงค์ด้านสื่อลามกอนาจารเด็ก ให้เขียน NGO ไว้
สำหรับฮเยจองฮัน นักวิจัยภายในสมาคมที่ทำงานเกี่ยวกับเรื่องนี้ “เด็กๆ ไม่ควรมีชีวิตอยู่ด้วยความกลัวว่ารูปถ่ายของพวกเขาจะถูกขโมยและนำไปใช้ต่อต้านพวกเขา», รายงาน NGO. ตามข้อมูลหลัง รูปภาพที่คล้ายกันจากประเทศอื่นอาจเป็นส่วนหนึ่งของชุดข้อมูลนี้ได้เช่นกัน
รูปภาพถูกลบออกแต่ไม่ได้ถูกลบออกจากเว็บ
ดูเหมือนว่าปัญหาดังกล่าวจะถูกนำมาพิจารณาโดยเครือข่ายเปิดปัญญาประดิษฐ์ขนาดใหญ่ (Laion) ซึ่งเป็นองค์กรไม่แสวงผลกำไรของเยอรมนีซึ่งทำให้ชุดข้อมูลนี้เข้าถึงได้สำหรับนักวิจัย เมื่อถูกตั้งคำถามโดย Human Rights Watch องค์กรยืนยันว่ารูปภาพที่ทีมของฮเยจุงฮันระบุนั้นมีอยู่จริง โดยองค์กรพัฒนาเอกชนตกลงที่จะลบรูปภาพเหล่านั้นออก
องค์กรพัฒนาเอกชนของเยอรมนียังเล่าอีกว่าได้ตัดสินใจถอน Laion-5B เนื่องจากการศึกษาโดยมหาวิทยาลัยอเมริกันสแตนฟอร์ด- เมื่อเดือนธันวาคมที่ผ่านมา นักวิจัยพบว่ามีฐานข้อมูลรวมอยู่ด้วย ภาพอนาจารเด็กมากกว่าหนึ่งพันภาพ องค์กรกล่าวเสริมว่าขณะนี้กำลังทำงานร่วมกับ “Internet Watch Foundation, Canadian Center for Child Protection, Stanford University และ Human Rights Watch ให้ลบการอ้างอิงที่ทราบทั้งหมดไปยังเนื้อหาที่ผิดกฎหมาย-
องค์กรพัฒนาเอกชนของเยอรมันแนะนำให้เด็ก พ่อแม่ และผู้ปกครองลบรูปภาพทั้งหมดที่อยู่บนเว็บ: นี่จะถือเป็นการป้องกันที่มีประสิทธิผลสูงสุดต่อการใช้ในทางที่ผิด เธอขอร้อง ซึ่งเป็นการป้องกันที่ยังห่างไกลจากความเด็ดขาด เพราะถึงแม้ข้อมูลจะถูกลบและ Laion-5B ถูกถอนออกไป ก็สามารถทำสำเนาได้-การลบลิงก์ออกจากชุดข้อมูลไม่ได้เป็นการลบเนื้อหานั้นออกจากเว็บ» ขีดเส้นใต้ Nate Tyler โฆษกของเขา ถึงเพื่อนร่วมงานของเราที่แบบมีสาย- ทำความเข้าใจ: ยังคงสามารถค้นหาและใช้งานรูปภาพเหล่านี้ได้ แม้ว่าจะไม่ได้ผ่าน Laion ก็ตาม
สำหรับ Hye Jung Han ที่อ้างโดย Human Rights Watch สมาชิกสภานิติบัญญัติจะต้องปกป้องผู้เยาว์จากการใช้รูปภาพและข้อมูลส่วนบุคคลโดย AI ได้ดีขึ้น:-ฉันคิดว่าเด็กๆ และผู้ปกครองไม่ควรต้องรับผิดชอบในการปกป้องเด็กๆ จากเทคโนโลยีที่โดยพื้นฐานแล้วเป็นไปไม่ได้ที่จะป้องกัน-
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : รายงาน Human Rights Watch วันที่ 10 มิถุนายน 2024