ผู้ผลิตชิปของสหรัฐ Intel กำลังพูดถึงความพยายามในการสร้าง Busters Deepfake แม้ว่าข้อความจะไม่น่าเชื่อถือเหมือนภาพที่ประดิษฐ์ขึ้นในป่าทุกวันนี้
Intel'sเครื่องรางซอฟต์แวร์ใช้เทคนิคอย่างน้อยสองเทคนิคในการระบุวิดีโอที่ผลิตขึ้น 96 % ของอวตารและมนุษย์แท้ที่ทำสิ่งที่พวกเขาไม่ได้ทำจริง ๆ บริษัท ภูมิใจนำเสนอ
ในบทความสำหรับ BBCนักวิทยาศาสตร์การวิจัย Intel Labs Excated Ilke Demir กล่าวว่าวิธีหนึ่งที่ใช้คือ PhotoPlethysmography ซึ่งเห็นและวัดการเปลี่ยนสีที่มองไม่เห็นส่วนใหญ่ของใบหน้าเนื่องจากเลือดถูกสูบผ่านหลอดเลือดที่ไม่สามารถนับได้ทุกการเต้นของหัวใจ
มันคือไม่ใช่แนวคิดใหม่และในขณะที่วิดีโอ Deepfake ไม่สามารถทำซ้ำได้ในวันนี้ดูเหมือนว่ามันจะไม่ใช่อุปสรรค์ที่ใหญ่ที่สุดที่ผู้สร้างวิดีโอเผชิญในการสร้างความผิดปกติของความเป็นจริง
Demir ยังอธิบายถึงปัญหาซอฟต์แวร์ AI ในการรักษาดวงตาของ Avatar Deepfake คู่ขนานและชี้ไปที่จุดที่เหมาะสมในอวกาศ นั่นคือธงสีแดงสำหรับ Fakecatcher เธอกล่าว
ภารกิจในการค้นหาและกำจัดวิดีโอและเสียงในที่สุดก็อาจเกินกว่า Intel หรือคนอื่น ๆ BBC ที่เกี่ยวข้องที่สองเรื่องราวแสดงให้เห็นถึงความยากลำบากที่ผู้คนและซอฟต์แวร์ที่ทำงานร่วมกันมีในการกำจัดโลกของเนื้อหาที่ลึกซึ้งและเป็นของแท้ที่ชัดเจนยิ่งขึ้น
นักข่าวนาฬิกาในกล้องมีการทารุณกรรมเด็กอย่างลึกซึ้งที่พบทางออนไลน์โดยมูลนิธิดูอินเทอร์เน็ตซึ่งได้รับใบอนุญาตให้ค้นหาดูและพยายามหยุดการพรรณนาทั้งหมด บทความซึ่งไม่ได้แสดงวิดีโอที่เป็นปัญหา แต่อย่างใดทำให้ผู้สื่อข่าวตกอยู่ห่างจากจุดศูนย์ถ่วงของเขาวิดีโอจะหยุดลงในขณะที่เขารวบรวมตัวเอง
แม้ว่าจะเป็นไปได้มาก แต่โอกาสที่จะป้องกันไม่ให้ Deepfakes อันตรายทั้งหมดซึ่งเติบโตขึ้นอย่างเหมาะสมตลอดเวลาดูเหมือนว่ามันอาจจะเกินกว่า AI ที่ไม่เหน็ดเหนื่อย
หัวข้อบทความ
การตรวจจับ deepfake-เฟลค์-ใบหน้าชีวภาพ-การป้องกันการฉ้อโกง-Intel-ข้อมูลสังเคราะห์