งานวิจัยใหม่จากOfcomเผยให้เห็นว่า Deepfakes ที่แพร่หลายได้กลายเป็นอย่างไรในสหราชอาณาจักรและอื่น ๆ ตามที่ผู้ควบคุมออนไลน์ 43 เปอร์เซ็นต์ของคนที่มีอายุมากกว่า 15 ปีกล่าวว่าพวกเขาเห็นอย่างน้อยหนึ่งคนเฟลค์ออนไลน์ในช่วงหกเดือนที่ผ่านมา จำนวนที่น่าเป็นห่วงเพิ่มขึ้นถึง 50 เปอร์เซ็นต์ในหมู่เด็กอายุ 8-15 ปี เนื้อหาที่ชัดเจนเป็นปัญหาที่เพิ่มขึ้นเนื่องจากลามกอนาจารของ deepfakes แพร่กระจายทำให้เกิดอันตรายในชีวิตจริง
ข้อมูลเชิงลึกเพิ่มเติมเกี่ยวกับ Deepfakes ได้เกิดขึ้นจาก Westminster Media Forum เมื่อเร็ว ๆ นี้ซึ่งมุ่งเน้นไปที่การจัดการกับการแพร่กระจายของการบิดเบือนและการใช้ Deepfakes ที่เป็นอันตราย- ผู้มีส่วนได้ส่วนเสียและผู้กำหนดนโยบายรวมตัวกันเพื่อหารือเกี่ยวกับแนวโน้มการบิดเบือนข้อมูลปัจจุบันและที่เกิดขึ้นใหม่ในสหราชอาณาจักรท่ามกลาง“ ความกังวลที่เพิ่มมากขึ้นระหว่างหน่วยงานกำกับดูแลและฝ่ายที่ได้รับผลกระทบ”
ความลึกทางเพศทำให้เกิดความเสียหายอย่างแท้จริงต่อผู้หญิงที่ถูกขโมยภาพลักษณ์
ตัวเลข Deepfake ที่ถูกต้องนั้นยากที่จะติดตาม แต่จาก Ofcom กล่าวจาก“ หลักฐานที่มีอยู่มันปรากฏว่าเป็นหนึ่งในรูปแบบที่พบบ่อยที่สุดของ Deepfakes ที่ใช้ร่วมกันทางออนไลน์เป็นเนื้อหาที่ไม่เป็นส่วนตัว” ตามการวิเคราะห์ภูมิทัศน์การละเมิด Deepfakeโดยกลุ่มผู้สนับสนุนสิทธิดิจิตอลภาพของฉันตัวเลือกของฉัน (MIMC) ตอนนี้มีวิดีโอมากกว่า 276,000 รายการที่หมุนเวียนอยู่ในเว็บไซต์ Deepfake ที่ได้รับความนิยมมากที่สุดโดยมีผู้ชมทั้งหมดมากกว่า 4.2 พันล้านครั้ง ในปี 2023 มีการโพสต์วิดีโอการละเมิดที่ลึกมากขึ้นกว่าทุกปีรวมกัน
รายงานการสนทนาใหม่ของ Ofcom“ การป้องกัน Deepfake: ลดอันตรายจากการหลอกลวง Deepfakes” กล่าวว่าหนึ่งในเจ็ดของผู้ใหญ่ที่บอกว่าพวกเขาได้เห็นรายงานเนื้อหา Deepfake เห็น Deepfakes ทางเพศหรือ“ Deep Nudes” ภายใต้สองในสามของผู้ที่กล่าวว่า deepfake ทางเพศที่ชัดเจนเป็นของคนดังหรือบุคคลสาธารณะ- สิบห้าเปอร์เซ็นต์บอกว่าเป็นของคนที่พวกเขารู้จัก หกเปอร์เซ็นต์บอกว่า deepfake ที่พวกเขาเห็นเป็นรุ่นปลอมของตัวเอง สิบเจ็ดเปอร์เซ็นต์เชื่อว่ามันแสดงให้เห็นถึงบุคคลที่อายุต่ำกว่า 18 ปี
Ofcom กล่าวว่าหลักฐานแสดงให้เห็นว่าส่วนใหญ่ของ deepfakes ทางเพศที่ชัดเจนเป็นของผู้หญิงหลายคนที่ต้องทนทุกข์ทรมานจากพล็อตหรือความวิตกกังวลอันเป็นผลมาจากการกำหนดเป้าหมาย Deepfakes กล่าวว่าหน่วยงานกำกับดูแล“ ทำอันตรายร้ายแรงต่อบุคคลทั่วไปไม่ว่าจะเป็นโดยการให้ความสำคัญในวิดีโอ deepfake ทางเพศที่ไม่ได้รับความนิยมหรือตกเป็นเหยื่อการหลอกลวงโรแมนติก Deepfakeและโฆษณาที่ฉ้อโกง”
Generative AI กำลังมีบทบาทที่ทวีความรุนแรงมากขึ้นทำให้ Deepfakes ง่ายขึ้นและราคาถูกกว่าในการผลิตมากกว่าที่เคยเป็นมา แต่มันก็เป็นเครื่องมือสำคัญในคลังแสงป้องกัน Deepfake โดยเฉพาะอย่างยิ่งความก้าวหน้าในอัตลักษณ์สังเคราะห์ช่วยนักพัฒนาซอฟต์แวร์สร้างชุดข้อมูลที่ครอบคลุมและยุติธรรม
การป้องกันต่อต้าน Deepfakes แบ่งออกเป็นสี่ประเภทกว้าง: Ofcom
ในแง่ของกลยุทธ์การป้องกัน Ofcom ระบุ“ การแทรกแซงหมวดหมู่” สี่ประเภทที่มีให้สำหรับผู้ใช้และองค์กรที่มีความเสี่ยง: การป้องกันการฝังการตรวจจับและการบังคับใช้
การป้องกัน“ เกี่ยวข้องกับความพยายามในการปิดกั้นการสร้างDeepfakes ที่เป็นอันตรายด้วยนักพัฒนาโมเดลแนะนำการป้องกันและปรับเทคโนโลยีของพวกเขาเพื่อให้ยากต่อการสร้างเนื้อหาที่เป็นอันตราย”
การฝัง“ นำข้อมูลที่แนบมากับเนื้อหาเพื่อระบุต้นกำเนิด” ตัวอย่างเช่นลายน้ำที่มองไม่เห็นเมตาดาต้าที่มาหรือฉลากบนเนื้อหาที่สร้างขึ้นด้วย AI
การตรวจจับ“ หมายถึงการใช้เครื่องมือในการเปิดเผยต้นกำเนิดของเนื้อหาโดยไม่คำนึงว่าข้อมูลได้ถูกแนบกับมันในวิธีที่อธิบายไว้ข้างต้น”การตรวจจับ deepfakeและการตรวจจับความมีชีวิตชีวาเป็นส่วนหนึ่งของไบโอเมตริกซ์เอกลักษณ์ดิจิตอลและเครื่องมือสำคัญของผู้ให้บริการรักษาความปลอดภัยทางไซเบอร์
ในที่สุดการบังคับใช้“ เกี่ยวข้องกับการตั้งค่าและสื่อสารกฎที่ชัดเจนเกี่ยวกับประเภทของเนื้อหาสังเคราะห์ที่สามารถสร้างได้โดยใช้แบบจำลองยีนและเครื่องมือที่เกี่ยวข้องรวมถึงประเภทของเนื้อหาที่สามารถแชร์บนแพลตฟอร์มออนไลน์ นอกจากนี้ยังอาจเกี่ยวข้องกับการกระทำกับผู้ใช้ที่ฝ่าฝืนกฎเหล่านั้นเช่นโดยการยกเลิกเนื้อหาและระงับหรือลบบัญชี” ซึ่งก็คือการพูดทำกฎและบังคับใช้พวกเขา
เว็บไซต์ของ Ofcom มีเต็มรายงานการป้องกัน Deepfake-
เวสต์มินสเตอร์ฟอรัมพิจารณาวิธีแก้ปัญหานโยบายในช่วงของความเสียหายที่ลึกล้ำ
การสนทนาจากเวสต์มินสเตอร์สื่อฟอรัมสะท้อนถึงความกังวลที่คล้ายกันและความพยายามที่เกี่ยวข้องเพื่อให้แน่ใจว่ากฎระเบียบนั้นยากพอที่จะทำให้เกิดภัยคุกคามที่ลึกล้ำ ความคิดจากตัวแทนในสื่อเทคโนโลยีกฎหมายและกฎระเบียบที่ชั่งน้ำหนักในการคุกคามเพื่อเสาหลักของสังคมของเราเช่นความไว้วางใจในสื่อที่ยุติธรรมและเป็นอิสระเศรษฐกิจการทำงานและกระบวนการประชาธิปไตย
ชุดรูปแบบที่โดดเด่นปรากฏขึ้น: ในระยะสั้นความจำเป็นของกฎและกรอบการทำงานอย่างเป็นทางการของ AI- เพื่ออ้างถึงผู้นำเสนอ Tami Hoffman ผู้อำนวยการฝ่ายจัดจำหน่ายข่าวและนวัตกรรมเชิงพาณิชย์ที่ Major UK Media Outlet ITN“ สถานการณ์ปัจจุบันคือเราไม่สามารถพึ่งพาเทคโนโลยีในการแก้ปัญหานโยบายนี้และกฎหมายและกฎระเบียบและกรอบย้อนกลับที่ดึงมันทั้งหมดเข้าด้วยกัน” เธอบอกว่าขึ้นอยู่กับผู้กำหนดนโยบาย
ฮอฟฟ์แมนระบุว่า“ ภาพหลอนไม่ใช่ แต่เป็น แต่เป็นคุณสมบัติ” ของแพลตฟอร์ม AI ที่สร้างขึ้นเนื้อหา deepfake- LMS หรือโมเดลภาษาขนาดใหญ่เธอพูดว่าอยู่ในสาระสำคัญเครื่องจักรความน่าจะเป็น และ“ ด้วยความน่าจะเป็นในรูปแบบใด ๆ ก็มีโอกาสร้อยละความเสี่ยงที่คุณจะไม่ได้รับผลลัพธ์ที่ต้องการสิ่งนี้ทวีความรุนแรงมากขึ้นโดยภาคเศรษฐศาสตร์เพราะในการแข่งขันเพื่อรักษาความปลอดภัยในตลาดและความได้เปรียบในการเสนอญัตติครั้งแรก
เธอแนะนำให้ทำการทดลองทางความคิด“ การแลกเปลี่ยน บริษัท เทคโนโลยีสำหรับผู้ผลิตรถยนต์หรือผู้ผลิตอาหารสำหรับเด็กที่ทดสอบผลิตภัณฑ์ของพวกเขาในที่สาธารณะที่ไม่ได้เลือกแทนที่จะเป็นในห้องปฏิบัติการ” การละเว้นเป็นที่คุ้นเคย: บริษัท ข้อมูลขนาดใหญ่เป็นคนเลี้ยงแกะที่ไม่ดีของการปฏิบัติตามกฎระเบียบของตนเอง “ เราไม่สามารถให้ บริษัท เทคโนโลยีเขียนกฎสำหรับธุรกิจของตนเองได้”
ฮอฟฟ์แมนมุ่งเน้นไปที่แนวคิดลำดับความสำคัญสี่ประการในการกำหนดนโยบาย: ความปลอดภัยการส่งเสริมผู้แพร่ภาพกระจายเสียงภาครัฐที่สามารถทำหน้าที่เป็นแหล่งข้อมูลที่ได้รับการตรวจสอบการป้องกันลิขสิทธิ์จากการเก็บเกี่ยวข้อมูลและการพัฒนาหลักปฏิบัติสำหรับสถาบันสาธารณะทั้งหมด
มุมมองของอุตสาหกรรมเทคโนโลยีทำให้ความรับผิดชอบต่อหน่วยงานกำกับดูแลผู้ใช้
Javahir Askari ผู้จัดการนโยบายของระเบียบดิจิตอลสำหรับสมาคมการค้าtechukนำมุมมองของอุตสาหกรรม: ไม่เคยมืดมนเกินไปมุ่งเน้นไปที่โอกาสรวมถึงความท้าทายและในที่สุดก็ผลักดันความรับผิดชอบต่อทุกคนยกเว้น บริษัท เทคโนโลยี
“ มีทั้งโอกาสและการคุกคามที่ลึกล้ำเป็นจำนวนมากต่อประชาธิปไตยพลเมืองและเศรษฐกิจ” Askari กล่าว เธอระบุว่าภัยคุกคามอย่างลึกล้ำมักจะรู้สึกตื่นเต้นโดยกล่าวว่า“ ยังไม่มีภัยคุกคามขนาดใหญ่ทั่วกระดานและฉันคิดว่ามันเป็นโอกาสที่ดีสำหรับเราทั่วทั้งภาคส่วนเพื่อลองและสร้างกลยุทธ์การป้องกันทั้งสอง แต่ยังเป็นเครื่องมือเชิงรุก”
Askari ผลักดันให้เกิดความร่วมมือระหว่างประเทศมากขึ้นโดยผู้กำหนดนโยบายเพื่อกำจัด Deepfakes และ“ SANDBOX ความปลอดภัยออนไลน์” สำหรับการแลกเปลี่ยนความร่วมมือระหว่างนักพัฒนา “ มีพื้นที่ของแนวปฏิบัติที่ดีที่สุดซึ่งจะช่วยในการระบุสื่อที่แท้จริงและจะกล่าวถึงภัยคุกคามที่เพิ่มขึ้นของการบิดเบือนในขณะที่ยังอนุญาตให้ บริษัท ต่างๆสามารถคิดค้นสิ่งใหม่ ๆ ในพื้นที่ที่มีเนื้อหาได้” เธอกล่าว
ในที่สุดเธอก็บอกว่าผู้คนจะต้องดีขึ้นเมื่อรู้ว่าอะไรจริงและอะไรไม่ “ หนึ่งในสิ่งที่ Tech UK จะเรียกร้องให้มีการทำงานข้ามการรู้หนังสือเกี่ยวกับการรู้หนังสือของสื่อไม่ว่าจะเป็นส่วนสำคัญของการศึกษาของเด็กในโรงเรียนหรือแม้แต่สำหรับผู้ใหญ่-การสอนประชากรของสหราชอาณาจักรคุณรู้วิธีการรู้หนังสือมากขึ้น”
Kidron ตอบคำถามสามข้อจากความตื่นเต้นของเยาวชนที่มีปัญหาเกี่ยวกับ AI
ผู้ดูแลกิจกรรม BaronessBeeban Kidronที่ปรึกษาผู้เชี่ยวชาญสำหรับหน่วยงานที่ปรึกษาระดับสูงของเลขาธิการสหประชาชาติเกี่ยวกับปัญญาประดิษฐ์และประธานของมูลนิธิ 5rights (ท่ามกลางชื่ออื่น ๆ ) เชื่อว่าคนหนุ่มสาวตระหนักดีถึงศักยภาพและศักยภาพอันตรายของ AIและโพสต์คำถามหลักสามข้อที่เยาวชนถามถึงเธอเกี่ยวกับเทคโนโลยี
“ ก่อนอื่นคือเนื่องจากคนหนุ่มสาวได้รับข้อมูลส่วนใหญ่ทางออนไลน์เราควรสร้างความสมดุลให้กับเนื้อหาที่ไม่น่าเชื่อถือมากขึ้นโดยมีกฎที่ยากขึ้นในการไม่เปิดเผยตัวตนดังนั้นจึงง่ายกว่าที่จะจับคู่ผิดและบิดเบือนกับผู้ที่โพสต์ไว้”
ประการที่สอง“ หากผู้สร้างโมเดลรากฐานผลิตภัณฑ์และบริการที่สร้างขึ้นจากพวกเขาและผู้ที่แจกจ่ายและผู้ที่ใช้พวกเขาทั้งหมดมีความรับผิดชอบทางกฎหมายแยกต่างหากและเฉพาะเจาะจงสำหรับสิ่งที่พวกเขาเปิดใช้งานแจกจ่ายและผลิต”
และในที่สุดคำถามที่ชี้ให้เห็นถึงการวิจัยของ Ofcom:“ เนื่องจากเด็กผู้หญิงต้องทนทุกข์ทรมานจากการละเมิดทางออนไลน์และการเพิ่มขึ้นและทัศนคติของ Andrew Tate และ Deepfakes และ Deepfakes
กฎระเบียบสามารถติดตามวิวัฒนาการอย่างรวดเร็วของแบบจำลอง AI กำเนิดที่ขับเคลื่อนโดยภาคเทคโนโลยีที่หิวโหยหรือไม่? จะเครื่องมือชีวภาพและ AIสามารถเอาชนะการฉ้อโกง AI ในการต่อสู้ Deepfake Great Deepfake ได้หรือไม่? ใครมีความรับผิดชอบขั้นสุดท้ายเพื่อให้แน่ใจว่าโลกจะไม่ถูกน้ำท่วมด้วยข้อมูลที่ผิดและการบิดเบือนข้อมูลเนื้อหาที่มีการแสวงประโยชน์ทางเพศและขบวนพาเหรดที่ไม่มีที่สิ้นสุดของการพูดถึงหัวเสมือนจริง?
คำตอบคือความคืบหน้าในการทำงาน แน่นอนคุณสามารถถามได้เสมอCHATGPT-
หัวข้อบทความ
ไบโอเมตริกซ์-การตรวจจับ deepfake-เฟลค์-การป้องกันการฉ้อโกง-AI Generative-Ofcom-ระเบียบข้อบังคับ-สหราชอาณาจักร