ในยุคของ AI ปีการศึกษาใหม่นำมาซึ่งความท้าทายใหม่ ๆ เนื่องจากนักเรียนหันไปหา CHATGPT และเครื่องมือ AI อื่น ๆ มากขึ้นเพื่อให้ได้งานที่ได้รับมอบหมายเขียนเรียงความและอีเมลมากขึ้นและปฏิบัติงานอื่น ๆ ที่ จำกัด ไว้ก่อนหน้านี้ ในขณะเดียวกันโมเดลภาษาขนาดใหญ่ (LLMs) และเครื่องยนต์อัลกอริทึมอื่น ๆ ที่ให้พลังงานแก่ผลิตภัณฑ์เหล่านี้ขึ้นอยู่กับข้อมูลการฝึกอบรมจำนวนมากชุดข้อมูลไบโอเมตริกซ์ขนาดใหญ่นำไปสู่คำถามเกี่ยวกับวิธีการรับรู้ใบหน้าและระบบไบโอเมตริกซ์อื่น ๆ ส่งผลกระทบต่อความเป็นส่วนตัวของเด็ก กรณีที่น่าสังเกตคือการตีแผ่ในบราซิลซึ่งนักรณรงค์ด้านสิทธิมนุษยชนต้องการให้รัฐบาลห้าม บริษัท จากการขูดเว็บสำหรับข้อมูลไบโอเมตริกซ์
AI นำมาซึ่งผลลัพธ์ที่ดีและไม่ดีมากมายสำหรับเด็ก: ยูนิเซฟ
ในผู้อธิบายล่าสุดบทความองค์การยูนิเซฟถามว่าจะให้อำนาจและปกป้องเด็ก ๆ ในโลกที่ถูกโจมตีด้วย AI และสัญญาได้อย่างไร มันบันทึกการวิจัยแสดงให้เห็นว่าCHATGPTได้กลายเป็นบริการดิจิตอลที่เติบโตเร็วที่สุดตลอดกาลทำให้มีผู้ใช้ 100 ล้านคนในเวลาเพียงสองเดือน (โดยการเปรียบเทียบมันใช้เวลา Tiktok เก้าเดือนในการไปถึงตัวเลขเดียวกัน) เด็ก ๆ ใช้มันมากกว่าผู้ใหญ่โดยมีเด็ก 58 เปอร์เซ็นต์อายุ 12-18 ปีรายงานว่าใช้เครื่องมือเมื่อเทียบกับ 30 เปอร์เซ็นต์ของผู้ที่อายุมากกว่า 18 ปี
“ ในการเผชิญกับแรงกดดันที่เพิ่มขึ้นสำหรับกฎระเบียบเร่งด่วนของ AI และโรงเรียนทั่วโลกห้ามแชทบอทรัฐบาลกำลังขอให้นำทางภูมิทัศน์แบบไดนามิกนี้ในนโยบายและการปฏิบัติ” ชิ้นส่วนกล่าว “ ให้ก้าวของการพัฒนาและการยอมรับ AIมีความต้องการเร่งด่วนสำหรับการวิจัยการวิเคราะห์และการมองการณ์ไกลเพื่อเริ่มเข้าใจถึงผลกระทบของ AI กำเนิดที่มีต่อเด็ก”
UNICEF ใช้มุมมองที่สมดุลโดยสังเกตวิธีการที่ระบบ AIอาจเป็นประโยชน์ต่อเด็ก ๆ หากใช้อย่างมีความรับผิดชอบและมีจริยธรรมสำหรับแอปพลิเคชันบางอย่าง สิ่งเหล่านี้รวมถึงการใช้ AI Generative สำหรับข้อมูลเชิงลึกเกี่ยวกับข้อมูลทางการแพทย์เพื่อสนับสนุนความก้าวหน้าในการดูแลสุขภาพและการใช้อัลกอริทึมเพื่อเพิ่มประสิทธิภาพระบบการเรียนรู้สำหรับเด็ก ๆ ในสเปกตรัมการศึกษา อย่างไรก็ตามคนงานและศิลปินสร้างสรรค์หลายคนจะเลอะเทอะด้วยข้อเสนอแนะที่ AI จะเป็นประโยชน์ในการเสนอ“ เครื่องมือเพื่อสนับสนุนการเล่นและความคิดสร้างสรรค์ของเด็กในรูปแบบใหม่ ๆ เช่นการสร้างเรื่องราวงานศิลปะเพลงหรือซอฟต์แวร์ (ไม่มีทักษะการเข้ารหัสต่ำหรือต่ำ)”
ความเสี่ยงของ AI รวมถึงอันตรายต่อประชาธิปไตยการแสวงประโยชน์จากเด็กไฟฟ้าที่เป็นไปได้
ในขณะที่มันนำไปสู่ผลประโยชน์องค์การยูนิเซฟยังตั้งข้อสังเกตว่า“ ความเสี่ยงที่ชัดเจนว่าเทคโนโลยีสามารถใช้โดยนักแสดงที่ไม่ดีหรือก่อให้เกิดอันตรายหรือการหยุดชะงักของสังคมโดยไม่ได้ตั้งใจด้วยค่าใช้จ่ายของความเป็นอยู่ที่ดีของเด็กและโอกาสในอนาคต” ส่วนนี้เป็นแคตตาล็อกที่ยาวนานกว่าของอันตรายที่อาจเกิดขึ้น
“ การบิดเบือนข้อมูลที่โน้มน้าวใจและเนื้อหาที่เป็นอันตรายและผิดกฎหมาย” สามารถบิดเบือนกระบวนการประชาธิปไตยเพิ่ม“ การดำเนินงานที่มีอิทธิพลออนไลน์” นำไปสู่การเพิ่มขึ้นการหลอกลวง Deepfake, เนื้อหาการล่วงละเมิดทางเพศเด็ก, การแยกและแบล็กเมล์; และโดยทั่วไปแล้วการกัดกร่อนความไว้วางใจจนกว่าจะไม่มีสิ่งใดที่น่าเชื่อถือและแนวคิดทางปรัชญาของความจริงหายไป การมีปฏิสัมพันธ์กับ chatbots อาจทำให้ความสามารถของเด็ก ๆ ในการแยกแยะความแตกต่างระหว่างสิ่งมีชีวิตและวัตถุที่ไม่มีชีวิต “ AI Systems มีพลังดิจิทัลเป็นส่วนใหญ่ในการให้บริการทางธุรกิจหรือผลประโยชน์ของรัฐบาล” ชิ้นส่วนกล่าว “ การกำหนดเป้าหมายทางไมโครที่ใช้ในการมีอิทธิพลต่อพฤติกรรมของผู้ใช้สามารถ จำกัด และ/หรือมีอิทธิพลอย่างมากต่อโลกทัศน์ของเด็กประสบการณ์ออนไลน์และระดับความรู้” อนาคตของการทำงานจะถูกถามความไม่เท่าเทียมจะเพิ่มขึ้น
“ Amazon Alexa” องค์การยูนิเซฟกล่าว“ แนะนำให้เด็กติดเหรียญในซ็อกเก็ตไฟฟ้า”
ในบราซิล Watchdog ดิจิตอลHuman Rights Watchได้เรียกร้องให้ยุติการขูดและการใช้ภาพถ่ายของเด็ก ๆ สำหรับการฝึกอบรมอัลกอริทึม AI ในการอัปเดตการส่งมีนาคม 2567 ของพวกเขาไปยังคณะกรรมการสหประชาชาติทางด้านขวาของเด็กกลุ่มกล่าวว่าข้อมูลที่ถูกคัดลอกมาจากเว็บเพื่อจุดประสงค์ในการฝึกอบรมระบบ AI โดยไม่ได้รับความยินยอมจากผู้ใช้คือ“ การละเมิดสิทธิมนุษยชนขั้นต้น”การแสวงหาผลประโยชน์และการล่วงละเมิด มันกำลังเรียกร้องให้รัฐบาลของบราซิล“ หนุนกฎหมายคุ้มครองข้อมูลโดยใช้การป้องกันเพิ่มเติมที่ครอบคลุมสำหรับความเป็นส่วนตัวของข้อมูลเด็กและ“ นำและบังคับใช้กฎหมายเพื่อปกป้องสิทธิเด็กออนไลน์รวมถึงความเป็นส่วนตัวของข้อมูล”
ข้อมูลสังเคราะห์มากขึ้นพื้นที่ที่น่าสนใจสำหรับอัลกอริทึมการฝึกอบรม
หากเราต้องทำให้เด็ก ๆ ปลอดภัยจากความเสี่ยงที่อาจเกิดขึ้นก็ยังมีคำถามของวิธีฝึกอบรมระบบ AIซึ่งปัจจุบันใช้กับข้อมูลที่สะท้อนถึงการมีอยู่ของเด็ก
กระดาษใหม่ชื่อ "การจดจำใบหน้าของเด็กในระดับ: การสร้างข้อมูลสังเคราะห์และเกณฑ์มาตรฐานประสิทธิภาพ” กล่าวถึง“ ความต้องการฐานข้อมูลขนาดใหญ่ของใบหน้าของเด็กโดยใช้เครือข่ายที่เป็นปฏิปักษ์ต่อการกำเนิด (GANS) และโมเดลความก้าวหน้าของยุคใบหน้า (FAP) เพื่อสังเคราะห์ชุดข้อมูลที่สมจริง” กล่าวอีกนัยหนึ่งผู้เขียนเสนอการสร้างฐานข้อมูลใบหน้าสังเคราะห์ของเด็กโดยการสุ่มตัวอย่างวิชาผู้ใหญ่และใช้อินเทอร์เฟซกันเพื่อลดอายุ-ท่อใหม่สำหรับ“ ภาพใบหน้าเด็กที่ควบคุมไม่ได้”
ฐานข้อมูล“ HDA-Synchildfaces” ที่เกิดขึ้นของพวกเขา“ ประกอบด้วย 1,652 วิชาและ 188,328 ภาพแต่ละเรื่องมีอยู่ในช่วงอายุที่หลากหลายและมีรูปแบบภายในที่แตกต่างกันมากมาย” ข้อมูลแสดงให้เห็นว่าเมื่อได้รับการประเมินและเปรียบเทียบกับผลลัพธ์ของผู้ใหญ่และเด็กที่มีอายุต่างกัน“ เด็ก ๆ ทำงานได้แย่กว่าผู้ใหญ่อย่างต่อเนื่องในระบบที่ผ่านการทดสอบทั้งหมดและการเสื่อมสภาพของประสิทธิภาพนั้นเป็นสัดส่วนกับอายุ” นอกจากนี้การศึกษา“ เปิดเผยบางอย่างอคติในระบบการจดจำด้วยอาสาสมัครเอเชียและสีดำและผู้หญิงที่ทำงานได้แย่กว่าวิชาขาวและละตินฮิสแปนิกและผู้ชาย”
ฐานข้อมูลใบหน้าปลอมสามารถใช้เงินทุนได้มากขึ้นเมื่อดอกเบี้ยเพิ่มขึ้น
ข้อมูลสังเคราะห์ได้ทำให้ความสนใจของนักวิจัยทั่วทั้ง AI, Biometrics และ Digital Identity Spectrum กระดาษจาก Biometrics DA/SEC และกลุ่มวิจัยความปลอดภัยที่ Hochschule Darmstadt Hochschule ของเยอรมนีในทำนองเดียวกันดูว่าจะบรรลุอย่างไรการจดจำใบหน้าของเด็กในระดับโดยใช้ชีวภาพใบหน้าสังเคราะห์ และใหม่วิจัยจากข้อมูลเชิงลึกของ CB กล่าวว่า“ เรากำลังหมดข้อมูลคุณภาพสูงในการฝึกอบรม LLMS ความขาดแคลนนั้นกำลังผลักดันความต้องการข้อมูลสังเคราะห์-ชุดข้อมูลที่สร้างขึ้นเทียมเช่นข้อความและรูปภาพ-เพื่อเสริมการฝึกอบรมแบบจำลอง” จดหมายข่าวที่สรุปผลการวิจัยกล่าวว่าการระดมทุนสำหรับการวิจัยเกี่ยวกับข้อมูลสังเคราะห์นั้นไม่สม่ำเสมอ แต่ความต้องการระหว่างประเทศคือการสร้างโอกาสโดยเฉพาะอย่างยิ่งในอุตสาหกรรมที่มีความอ่อนไหวต่อข้อมูล
หัวข้อบทความ
ไบโอเมตริกซ์-เด็ก-ชุดข้อมูล-การจดจำใบหน้า-AI Generative-ข้อมูลสังเคราะห์-ยูนิเซฟ