การตระหนักถึงภัยคุกคามที่เพิ่มขึ้นที่เกิดขึ้นจาก Deepfakes หน่วยงานโครงการวิจัยขั้นสูงด้านการป้องกัน (DARPA) กำลังใช้วิธีการหลายง่ามเพื่อต่อสู้กับความเสี่ยงที่เกี่ยวข้องกับสื่อสังเคราะห์ Deepfakes ซึ่งใช้ประโยชน์จาก AI ในการสร้างภาพที่เป็นจริงเสียงและวิดีโอยังคงเพิ่มขึ้นอย่างต่อเนื่องในความซับซ้อนและการเข้าถึงการวางความท้าทายต่อความมั่นคงของชาติความไว้วางใจสาธารณะและความสมบูรณ์แบบดิจิทัล
เพื่อตอบโต้การคุกคามของ Deepfakes DARPA ได้เปิดตัวโครงการริเริ่มที่มีผลกระทบสูงหลายประการที่รวมเทคนิคทางนิติวิทยาศาสตร์ขั้นสูงการเรียนรู้ของเครื่องและการวิจัยร่วมกันเพื่อตรวจจับวิเคราะห์และลดผลกระทบของเทคโนโลยี Deepfake
หนึ่งในความคิดริเริ่มที่สำคัญที่สุดของ DARPA คือนิติวิทยาศาสตร์ความหมายโปรแกรม (SEMAFOR) Semafor สร้างผลงานพื้นฐานของ DARPAนิติวิทยาศาสตร์สื่อโปรแกรม (Medifor) Medifor มุ่งเน้นไปที่การรับรองความถูกต้องของสื่อดิจิทัลในระดับพิกเซลในขณะที่ SEMAFOR ขยายการวิเคราะห์นี้โดยการตรวจสอบเนื้อหาความหมายและความสอดคล้องของโครงสร้าง โปรแกรมใช้เทคนิคการเรียนรู้ของเครื่องเพื่อตรวจจับความผิดปกติในรูปภาพวิดีโอและเสียงที่วิธีการทางนิติวิทยาศาสตร์แบบดั้งเดิมมองข้าม
โดยการรวมการประมวลผลภาษาธรรมชาติและการวิเคราะห์ที่ขับเคลื่อนด้วย AI ทำให้ SEMAFOR ช่วยเพิ่มความสามารถในการระบุการจัดการนอกเหนือจากการเปลี่ยนแปลงระดับพื้นผิว โปรแกรม SEMAFOR พยายามที่จะเปิดเผยความไม่สอดคล้องกันในความหมายบริบทและโครงสร้างเพื่อให้มั่นใจว่ามีการระบุตัวตนที่แข็งแกร่งยิ่งขึ้นของสื่อปลอมและเท็จ
ความพยายามที่สำคัญอีกประการหนึ่งที่ DARPA เป็นหัวหอกคือการประเมินความท้าทายด้านการวิจัยแบบเปิดการวิจัยของ AI นี่คือความคิดริเริ่มการวิจัยชุมชนแบบเปิดที่ออกแบบมาเพื่อเร่งการพัฒนารูปแบบการเรียนรู้ของเครื่องที่ออกแบบมาเพื่อให้สามารถแยกสื่อสังเคราะห์จากเนื้อหาที่แท้จริงได้ โปรแกรมดังกล่าวเป็นรูปแบบการวิจัยแบบเปิดที่เชิญการมีส่วนร่วมของสถาบันการศึกษาอุตสาหกรรมและรัฐบาล ผ่านชุดของ mini-challenges ที่มีโครงสร้างซึ่งนักวิจัยสามารถทดสอบและปรับแต่งอัลกอริทึมการตรวจจับของพวกเขากับชุดข้อมูลที่เปิดเผยต่อสาธารณะ
นักวิจัย DARPA ร่วมมือกันเพื่อปรับแต่งโมเดล AI ที่สามารถตอบโต้ภัยคุกคามที่มีการพัฒนาอย่างมีประสิทธิภาพ DARPA เชื่อว่าด้วยการส่งเสริมนวัตกรรมในสภาพแวดล้อมที่เปิดกว้างและมีการแข่งขันสามารถให้วิธีการตรวจจับที่มีค่าซึ่งทันกับความก้าวหน้าในการสร้าง Deepfake
วิวัฒนาการอย่างรวดเร็วของ AI Generative นำเสนอความท้าทายที่น่าเกรงขามในการแข่งขันทางอาวุธระหว่างผู้สร้าง Deepfake และเทคโนโลยีการตรวจจับ เมื่อการสร้างเนื้อหาที่ขับเคลื่อนด้วย AI มีความซับซ้อนมากขึ้นกลไกการตรวจจับแบบดั้งเดิมมีความเสี่ยงที่จะล้าสมัยอย่างรวดเร็ว
การตรวจจับ Deepfake ขึ้นอยู่กับรูปแบบการเรียนรู้ของเครื่องฝึกอบรมในชุดข้อมูลขนาดใหญ่ของสื่อของแท้และจัดการ แต่การขาดแคลนชุดข้อมูลที่หลากหลายและคุณภาพสูงสามารถขัดขวางความคืบหน้าได้ การเข้าถึงชุดข้อมูลที่ครอบคลุมอย่าง จำกัด ทำให้ยากต่อการพัฒนาระบบตรวจจับที่มีประสิทธิภาพซึ่งสรุปได้ในรูปแบบสื่อต่าง ๆ และเทคนิคการจัดการ
เพื่อจัดการกับความท้าทายนี้ DARPA ให้ความสำคัญกับการทำงานร่วมกันแบบสหวิทยาการ ด้วยการร่วมมือกับสถาบันต่าง ๆ เช่น SRI International และ PAR Technology DARPA ใช้ประโยชน์จากความเชี่ยวชาญที่ทันสมัยเพื่อเพิ่มขีดความสามารถของระบบนิเวศการตรวจจับ Deepfake ความร่วมมือเหล่านี้อำนวยความสะดวกในการแลกเปลี่ยนความรู้และทรัพยากรทางเทคนิคที่เร่งการปรับแต่งเครื่องมือทางนิติวิทยาศาสตร์ รูปแบบการวิจัยแบบเปิดของ DARPA ยังช่วยให้มุมมองที่หลากหลายสามารถมาบรรจบกันส่งเสริมนวัตกรรมและการปรับตัวอย่างรวดเร็วเพื่อตอบสนองต่อภัยคุกคามที่เกิดขึ้นใหม่
การตรวจจับ Deepfake ยังเผชิญกับความท้าทายในการคำนวณที่สำคัญ การฝึกอบรมเครือข่ายประสาทลึกเพื่อรับรู้สื่อที่มีการจัดการต้องใช้กำลังการประมวลผลที่กว้างขวางและการจัดเก็บข้อมูลขนาดใหญ่ ความซับซ้อนของการจัดการสื่อที่ขับเคลื่อนด้วย AI ต้องการทรัพยากรจำนวนมากซึ่งไม่สามารถเข้าถึงได้สำหรับสถาบันการวิจัยทั้งหมด ด้วยการลงทุนในกรอบการคำนวณที่ปรับขนาดได้และมีประสิทธิภาพ DARPA พยายามที่จะทำให้การเข้าถึงแบบจำลอง AI ที่มีประสิทธิภาพสูงเป็นประชาธิปไตยเพื่อให้แน่ใจว่าความสามารถในการตรวจจับยังคงมีอยู่อย่างกว้างขวางและมีประสิทธิภาพ
องค์ประกอบสำคัญของกลยุทธ์ของ DARPA คือการพัฒนาแคตตาล็อก SEMAFOR ANALYTIC ที่เก็บนี้ทำหน้าที่เป็นคอลเลกชันส่วนกลางของเครื่องมือและทรัพยากรทางนิติวิทยาศาสตร์โอเพนซอร์ซที่ออกแบบมาเพื่อเร่งการพัฒนาวิธีการตรวจจับ Deepfake ด้วยการทำให้ทรัพยากรเหล่านี้พร้อมใช้งานสำหรับหน่วยงานของรัฐนักวิจัยด้านวิชาการและหน่วยงานภาคเอกชน DARPA กำลังส่งเสริมระบบนิเวศการทำงานร่วมกันซึ่งความก้าวหน้าในนิติวิทยาศาสตร์ AI สามารถนำไปใช้งานได้อย่างรวดเร็วและปรับปรุงซ้ำ ๆ
วิธีการของ Semafor ครอบคลุมเกินกว่าการวิเคราะห์สื่อดิบเพื่อรวมถึงการตรวจสอบข้อมูลเมตาซึ่งเป็นสิ่งสำคัญในการตรวจสอบทางนิติวิทยาศาสตร์ ข้อมูลเมตาเช่นการประทับเวลาข้อมูลตำแหน่งทางภูมิศาสตร์และการตั้งค่ากล้องมักจะมีความไม่สอดคล้องกันเล็กน้อยที่เปิดเผยการดัดแปลงดิจิตอล โดยการรวมการวิเคราะห์ข้อมูลเมตาเข้ากับการประเมินเนื้อหาความหมาย SEMAFOR ช่วยเพิ่มความสามารถในการระบุสิ่งประดิษฐ์สื่อปลอมแปลง นอกจากนี้ชุดเครื่องมือทางนิติวิทยาศาสตร์ของ Semafor ได้รับการออกแบบมาเพื่อรวมเข้ากับเวิร์กโฟลว์การวิเคราะห์ที่กว้างขึ้นเพื่อให้นักวิเคราะห์มีข้อมูลเชิงลึกที่ครอบคลุมเกี่ยวกับความถูกต้องของสื่อ
แต่ถึงแม้จะมีความก้าวหน้าของ DARPA การต่อสู้อย่างต่อเนื่องกับ Deepfakes ก็ยังคงเป็น- การปรับแต่งอย่างต่อเนื่องของเทคโนโลยี Deepfake ทำให้นักแสดงที่เป็นอันตรายมีความสามารถในการผลิตทำให้มีความจำเป็นที่วิธีการตรวจจับมีวิวัฒนาการควบคู่ไปกับการตีคู่ การเพิ่มระดับคงที่นี้เน้นย้ำถึงความสำคัญของการวิจัยและพัฒนาอย่างต่อเนื่องเพื่อให้แน่ใจว่าเครื่องมือทางนิติวิทยาศาสตร์ยังคงมีประสิทธิภาพต่อเทคนิคการจัดการและเทคโนโลยีล่าสุด
เหตุการณ์ในโลกแห่งความเป็นจริงได้เน้นไปที่สำหรับความสามารถในการตรวจจับ Deepfake ขั้นสูง ในเดือนกันยายน 2567 สมาชิกวุฒิสภาของสหรัฐอเมริกาเบ็นคาร์ดินถูกกำหนดเป้าหมายโดยการดำเนินการ Deepfake ที่ขับเคลื่อนด้วย AI ซึ่งฝ่ายตรงข้ามใช้วิดีโอสังเคราะห์เพื่อเลียนแบบเจ้าหน้าที่ของยูเครนในความพยายามที่จะดึงข้อมูลทางการเมืองที่ละเอียดอ่อน กรณีที่มีชื่อเสียงระดับสูงนี้เน้นย้ำถึงผลกระทบด้านความมั่นคงแห่งชาติของเทคโนโลยี Deepfake และเสริมความเร่งด่วนของความคิดริเริ่มของ DARPA
ยิ่งไปกว่านั้นการแพร่กระจายของการโฆษณาชวนเชื่อที่สร้างขึ้นอย่างลึกซึ้งและข้อมูลที่ผิดได้ทำให้เกิดความกังวลด้านจริยธรรมและทางกฎหมาย บุคคลสาธารณะและบุคคลเอกชนได้พบภาพที่ใช้ในเนื้อหาที่ประดิษฐ์ขึ้นโดยไม่ได้รับความยินยอมปัญหาที่ทวีความรุนแรงขึ้นที่เกี่ยวข้องกับความเป็นส่วนตัวและการจัดการชื่อเสียง การปรับใช้สื่อ Ai-Generated ที่ไม่ได้รับอนุญาตในแคมเปญการจัดการทางการเมืองและสังคมได้แสดงให้เห็นถึงของเทคโนโลยี Deepfake ความท้าทายเหล่านี้เน้นถึงความจำเป็นของการลงทุนอย่างต่อเนื่องของ DARPA ในการวิจัยทางนิติวิทยาศาสตร์และนวัตกรรมทางเทคโนโลยี
ในขณะที่การแก้ปัญหาทางเทคโนโลยีมีความสำคัญจำเป็นต้องใช้วิธีการแบบองค์รวมเพื่อจัดการกับภัยคุกคามที่ลึกล้ำ นอกเหนือจากความคิดริเริ่มทางเทคนิคของ DARPA การดำเนินการทางกฎหมายการศึกษาสาธารณะและความร่วมมือระหว่างประเทศยังมีบทบาทสำคัญในการลดความเสี่ยงที่เกี่ยวข้องกับ Deepfakes ผู้ร่างกฎหมายและผู้กำหนดนโยบายกำลังตระหนักถึงความจำเป็นในการกำหนดกรอบทางกฎหมายมากขึ้นเพื่อให้ผู้สร้าง Deepfakes ที่เป็นอันตรายต้องรับผิดชอบ
มาตรการทางกฎหมายเช่นพระราชบัญญัติความรับผิดชอบของ Deepfakesมุ่งหวังที่จะสร้างกลไกการควบคุมที่ยับยั้งการใช้สื่อ Ai-Generated ในทางที่ผิดในขณะที่รักษาแอพพลิเคชั่นที่ถูกต้องตามกฎหมายของเนื้อหาสังเคราะห์ น่าเสียดายที่การออกกฎหมาย - เปิดตัวในปลายปี 2566 - ไม่เคยทำให้มันออกจากคณะกรรมการ
ปัจจุบันไม่มีกฎหมายของรัฐบาลกลางที่มีการประกาศใช้ที่ครอบคลุมซึ่งห้ามหรือควบคุม Deepfakes ที่การระบุเอาต์พุตของพระราชบัญญัติเครือข่ายฝ่ายตรงข้ามต้องการผู้อำนวยการมูลนิธิวิทยาศาสตร์แห่งชาติเพื่อสนับสนุนการวิจัยเพื่อพัฒนามาตรฐานเพื่อสร้างผลผลิต GAN และเทคนิคอื่น ๆ ที่พัฒนาขึ้นในอนาคต
แคมเปญการรับรู้สาธารณะก็มีความสำคัญอย่างยิ่งในการเตรียมบุคคลที่มีทักษะการคิดเชิงวิพากษ์ที่จำเป็นในการตรวจสอบความถูกต้องของสื่อดิจิทัล ด้วยการส่งเสริมการรู้หนังสือดิจิทัลและส่งเสริมความสงสัยต่อเนื้อหาออนไลน์ความคิดริเริ่มเหล่านี้ช่วยให้ผู้คนสามารถรับรู้และต่อต้านการบิดเบือนข้อมูลที่ขับเคลื่อนด้วย Deepfake
ในเวทีระดับโลกการทำงานร่วมกันระหว่างประเทศมีความสำคัญอย่างยิ่งในการจัดการกับธรรมชาติข้ามพรมแดนของภัยคุกคามที่ลึกล้ำ ความพยายามประสานงานระหว่างรัฐบาล บริษัท เทคโนโลยีและสถาบันการวิจัยสามารถปรับปรุงการแบ่งปันข้อมูลและกำหนดกรอบการตรวจจับที่เป็นมาตรฐานเพื่อเสริมสร้างการป้องกันแบบรวมกับการจัดการสื่อ Ai-Generated
ในขณะที่เทคโนโลยี Deepfake ยังคงพัฒนาอย่างต่อเนื่องความหมายของความสมบูรณ์ของข้อมูลความปลอดภัยและความเป็นส่วนตัวจะทวีความรุนแรงมากขึ้น ความพยายามเชิงรุกของ DARPA ซึ่งประกอบไปด้วยการวิจัยที่ทันสมัยนวัตกรรมการทำงานร่วมกันและการพัฒนาเครื่องมือตรวจจับที่ซับซ้อนนั้นมีความสำคัญต่อการปกป้องความน่าเชื่อถือของประชาชนและความมั่นคงของชาติ
ด้วยการบุกเบิกความก้าวหน้าในการเรียนรู้ของเครื่องนิติวิทยาศาสตร์ความหมายและการวิเคราะห์สื่อที่ขับเคลื่อนด้วย AI ทำให้ DARPA ทำงานอย่างขยันขันแข็งเพื่อจัดเตรียมหน่วยงานภาครัฐและเอกชนด้วยวิธีการต่อสู้กับภัยคุกคามที่เพิ่มขึ้นของ Deepfakes การต่อสู้อย่างต่อเนื่องกับการบิดเบือนข้อมูล Ai-Generated ไม่ได้เป็นเพียงการแข่งขันทางเทคโนโลยี แต่เป็นความพยายามขั้นพื้นฐานในการรักษาความจริงในโลกดิจิตอลที่เพิ่มขึ้นเรื่อย ๆ ผ่านการลงทุนอย่างยั่งยืนในการวิจัยทางนิติวิทยาศาสตร์และการทำงานร่วมกันแบบสหวิทยาการ DARPA จะสามารถมีบทบาทสำคัญในการเสริมสร้างความยืดหยุ่นของระบบนิเวศดิจิตอลต่อสื่อสังเคราะห์
หัวข้อบทความ
------