ผู้ล่าทางเพศใช้ประโยชน์จากเทคโนโลยี AI เพื่อแชร์วิดีโอปลอมเกี่ยวกับการล่วงละเมิดทางเพศเด็กในฟอรัม พวกเขายังแลกเปลี่ยนเคล็ดลับเพื่อหลีกเลี่ยงมาตรการรักษาความปลอดภัยของ AI หรือเพื่อดักจับเหยื่อได้ดีขึ้น ในขณะนี้ มีมาตรการป้องกันบางประการที่จะจำกัดการปฏิบัติประเภทนี้
เมื่อเทคโนโลยีถูกใช้ในทางที่ผิด: องค์กรพัฒนาเอกชนอเมริกัน, theศูนย์แห่งชาติเพื่อเด็กหายและถูกแสวงประโยชน์(ในภาษาฝรั่งเศส National Center for Missing and Exploited Children) เตือนถึงความจริงที่ว่าผู้ล่าทางเพศที่มุ่งเป้าไปที่ผู้เยาว์ก็หันไปใช้ปัญญาประดิษฐ์(AI) กำเนิด อย่างหลังจะใช้เครื่องมือสร้างรูปภาพและข้อความเพื่อให้บรรลุเป้าหมาย ในฟอรัมบางแห่ง ขณะนี้เราพบสคริปต์ที่อธิบายโปรไฟล์ซึ่งจะทำให้ได้รับความไว้วางใจจากผู้เยาว์ได้ง่ายขึ้น ภาพอันเป็นเท็จของความรุนแรงทางเพศที่กระทำต่อเด็กที่สร้างขึ้นโดย AI จะทวีคูณที่นั่น เช่นเดียวกับคำแนะนำให้หลีกหนีจากการควบคุมของ AI กำเนิด เมื่อมันมีอยู่ รายงานบลูมเบิร์ก, วันพุธที่ 24 พฤษภาคม.
แม้ว่าการกระทำผิดศีลธรรมบางประการไม่จำเป็นต้องผิดกฎหมาย แต่ในขณะนี้ การกระทำดังกล่าวยังส่งผลต่อการขยายการเผยแพร่ภาพอนาจารเด็กอีกด้วย นอกจากนี้ยังเพิ่มกรณีที่เด็กอาจติดกับดักโดยอาชญากรเด็ก ปัญหา: สิ่งที่ผู้ใช้ AI ทำ ไม่ว่าจะเป็นการเข้าถึงแบบฟรีหรือมีค่าใช้จ่าย เป็นสิ่งที่ควบคุมได้ยาก
ในไม่ช้าเนื้อหาลามกอนาจารเด็กที่สร้างโดย AI ก็มีมากมายใช่ไหม
อย่างไรก็ตาม ได้มีการวางมาตรการป้องกันไว้แล้ว บริษัทที่พัฒนา AI ที่สร้างภาพเหล่านี้ได้นำมาตรการรักษาความปลอดภัยมาใช้เพื่อไม่ให้ผู้ใช้สร้างภาพที่มีความรุนแรงหรือเกี่ยวกับเรื่องเพศด้วยเครื่องมือของพวกเขา วิธีการของพวกเขา: บล็อกคำหลักเพื่อหลีกเลี่ยงการสร้างเนื้อหาประเภทนี้ ดังที่ Stable Diffusion หรือ Dall-E ทำ แต่จะเป็นการง่ายที่จะหลีกเลี่ยงเครื่องมือกลั่นกรองเหล่านี้โดยใช้สำนวนอื่นที่ไม่ใช่คำที่ขึ้นบัญชีดำหรือโดยใช้ภาษาอื่นที่ไม่ใช่ภาษาอังกฤษ เคล็ดลับเหล่านี้จะถูกแชร์ในฟอรัม Avi Jager หนึ่งในผู้จัดการของ ActiveFence ซึ่งเป็นสตาร์ทอัพที่เชี่ยวชาญด้านการกลั่นกรองเนื้อหา ให้สัมภาษณ์โดยเพื่อนร่วมงานของเรา และ AI อื่นๆ ก็ไม่ได้จำกัดการแจ้งเตือนของพวกเขา องค์กรพัฒนาเอกชนที่ปกป้องสิทธิเด็กเกรงว่าท้ายที่สุดแล้ว การใช้เครื่องมือเหล่านี้จะสร้างเนื้อหาประเภทนี้อย่างล้นหลามทางออนไลน์
ดังนั้นจึงเป็นเรื่องยากที่จะแยกแยะเนื้อหาที่สร้างโดย AI จากภาพจริงของการล่วงละเมิดทางเพศที่กระทำต่อเด็ก ความเสี่ยงคือการที่เจ้าหน้าที่บังคับใช้กฎหมายเสียเวลาอันมีค่าในการพยายามแยกแยะข้อเท็จจริงจากนิยาย
AI จะถูกใช้เพื่อกำหนดเป้าหมายนักขุดในวงกว้างเร็วๆ นี้?
การแพร่กระจายของภาพปลอมเหล่านี้ไม่ใช่ปัญหาเดียวเท่านั้น นอกจากนี้ AI ยังช่วยให้ผู้ล่าทางเพศเพิ่มความพยายามในการเข้าถึงผู้ที่อาจเป็นเหยื่อได้ สัมภาษณ์โดยเพื่อนร่วมงานของเราซึ่งเป็นผู้อำนวยการด้านกฎหมายของศูนย์แห่งชาติเพื่อเด็กหายและถูกแสวงประโยชน์Yiotas Souras อธิบายว่าสคริปต์แชร์บางส่วนที่สร้างโดย AI เราสามารถอ่านคำอธิบายของบุคลิกภาพสมมติที่จะได้รับความไว้วางใจจากผู้เยาว์ เพื่อดักจับพวกเขาได้ดีขึ้น และปรากฏการณ์นี้จะอยู่ในวัยเด็กเท่านั้น -เราอยู่ในรุ่งอรุณของสิ่งใหม่ มันเพิ่งเริ่มต้นเท่านั้น» เธออธิบายให้เพื่อนร่วมงานของเราฟัง
ทั่วทั้ง Channel ความกังวลยังคงมีอยู่ Adam Dodge ผู้ก่อตั้ง EndTab กลุ่มชาวอังกฤษที่ต่อสู้กับการล่วงละเมิดทางเพศที่ใช้เทคโนโลยี กังวลว่าในที่สุด AI จะถูกนำมาใช้เพื่อกำหนดเป้าหมายผู้เยาว์ในวงกว้าง ถามโดยเดอะไทม์ส-เมื่อวันที่ 21 พฤษภาคม ผู้จัดการสมาคมเล่าว่าเครื่องมือ AI เหล่านี้สามารถโน้มน้าวใจได้มาก -ถ้าฉันสร้างโคลน AI ของนักล่า (...) และฝึกบอทนั้นให้ระบุและสื่อสารกับเด็กที่มีช่องโหว่ทางออนไลน์ในวงกว้าง […] บอทนั้นจะกำหนดเป้าหมายเด็กได้ครั้งละ 10,000 คน» เขาตื่นตระหนก
ในส่วนของ American NGO อธิบายว่ากำลังหารือกับผู้บัญญัติกฎหมายเพื่อประเมินว่ากฎระเบียบใหม่สามารถจำกัดการใช้ AI เหล่านี้ซึ่งเป็นอันตรายต่อผู้เยาว์และเผยแพร่ภาพอนาจารของเด็กได้อย่างไร ในสหรัฐอเมริกา การสร้างเนื้อหาประเภทนี้จะไม่ผิดกฎหมายในตัวมันเอง อธิบายบลูมเบิร์ก- มีการยื่นเรื่องร้องเรียนเกี่ยวกับภาพการล่วงละเมิดทางเพศเด็กที่สร้างขึ้นโดยไม่ได้ตั้งใจด้วย
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : บลูมเบิร์ก