ใหม่ของ VeriffDeepfakes Deep Dive Reportเป็นล่าสุดที่จะส่งเสียงระฆังเตือนภัยเกี่ยวกับภัยคุกคามที่ลึกล้ำและความจำเป็นในการ“ ปลูกฝังระบบนิเวศป้องกันการฉ้อโกง”
การเปิดตัวจากผู้ให้บริการตรวจสอบตัวตนกล่าวว่ารายงานมุ่งเน้นไปที่วิธีการเฟลค์ยืนหยัดเพื่อส่งผลกระทบต่อเศรษฐกิจดิจิทัลและกลยุทธ์ในการบรรเทาความเสี่ยง
“ Deepfakes ไม่จำเป็นต้องเป็นปรากฏการณ์ใหม่เราได้จัดการกับภัยคุกคามมาหลายปีแล้ว” Rishi Chauhan ผู้อำนวยการฝ่ายผลิตภัณฑ์เพื่ออัตลักษณ์และการฉ้อโกงกล่าวVeriff.“ อย่างไรก็ตามความสามารถที่ขับเคลื่อนด้วย Genai ในการเลียนแบบอุปมาของผู้ใช้สร้างปัญหาด้านความปลอดภัยที่ร้ายแรงสำหรับธุรกิจออนไลน์”
ปัญหาไม่ใช่ว่า deepfakes เป็นของใหม่ แต่เครื่องมือและเทคนิคใหม่ ๆ ทำให้ดีขึ้นอย่างต่อเนื่องราคาถูกกว่าและง่ายต่อการสร้าง หรือเป็นหนึ่งในประเด็นสำคัญของรายงานกล่าวว่า“ภัยคุกคาม AIมีความซับซ้อนมากขึ้น”
ในสรุปจากรายงานที่ตีพิมพ์ในบล็อกของ Veriff ผู้อำนวยการฝ่ายเนื้อหา Chris Hooper กล่าวว่า AI Generative สามารถจัดกลุ่มอัลกอริทึมเป็นเครือข่ายประสาทเทียมที่“ เลียนแบบโครงสร้างของสมองมนุษย์” และสามารถฝึกฝนให้“ มีความสัมพันธ์ที่ซับซ้อนและไม่เชิงเส้นระหว่างข้อมูลที่หลากหลายและไม่มีโครงสร้างจำนวนมาก”
“ เป็นผลให้แบบจำลองการเรียนรู้ลึกสามารถเรียนรู้ได้อย่างอิสระจากสภาพแวดล้อมของพวกเขาและจากความผิดพลาดที่ผ่านมาเพื่อทำงานให้กับมาตรฐานที่สูงมาก - รวมถึงการสร้างเสียงและวิดีโอปลอม” ฮูเปอร์กล่าว เขาบันทึกการประมาณจาก Deepmedia ว่ามี 500,000วิดีโอและเสียง Deepfakesมีการแบ่งปันบนเว็บไซต์โซเชียลมีเดียทั่วโลกในปี 2566
การจัดการ ID ที่ไม่เป็นระเบียบ, การป้องกันที่อ่อนแอเปิดประตูให้กับผู้หลอกลวง
องค์กรที่มีกระบวนการจัดการข้อมูลประจำตัวที่ไม่ต่อเนื่องและไม่สอดคล้องกันและความปลอดภัยทางไซเบอร์ที่ไม่ดีมีแนวโน้มที่จะเป็นเป้าหมายสำหรับผู้ที่กำลังมองหาอาหารกลางวันง่าย ๆอัตลักษณ์สังเคราะห์และเอกสารที่ปลอมแปลงสามารถใช้ในการทำลายการตรวจสอบไบโอเมตริกซ์ในระหว่างที่รู้จักลูกค้าของคุณ (KYC) กระบวนการบนเครื่องบินทำให้ผู้หลอกลวงเปิดบัญชีปลอม บัญชีที่มีอยู่นั้นมีความเสี่ยงต่อการทำงานของ Deepfakes และเทคนิควิศวกรรมสังคมดิจิทัลอื่น ๆ
รายงานของ Veriff ระบุสี่เทคนิคการฉ้อโกงทั่วไปผู้ที่หลอกลวงได้พัฒนาขึ้นด้วยความช่วยเหลือของ AI และการเรียนรู้อย่างลึกซึ้ง: การแลกเปลี่ยนใบหน้า, การซิงค์ริมฝีปาก, หุ่นเชิดและ gans และ autoencodersหน้าแลกเปลี่ยนซึ่งทับหน้าใหม่ของใครบางคนเป็นเรื่องธรรมดามากขึ้นโดยเฉพาะอย่างยิ่งในเนื้อหาลามกอนาจาร Chauhan บอกว่าพวกเขาไม่“ กระโดดไปข้างหน้าทุกปี แต่ทุก ๆ สองสามเดือน” การโจมตีของ LIP SYNC และ PUPPET ใช้อัลกอริทึมเพื่อสั่งการเคลื่อนไหวทางกายภาพของใครบางคนในวิดีโอในขณะที่ GANS และ AutoEncoders สามารถใช้เพื่อสร้างอัตลักษณ์สังเคราะห์ตามชุดข้อมูลขนาดใหญ่
"ถึงอยู่ข้างหน้าผู้หลอกลวงบริษัท ต้องการวิธีการที่มีการพัฒนาอย่างต่อเนื่องหลายชั้นซึ่งรวมเครื่องมือลดภัยคุกคามที่หลากหลาย น่าเสียดายที่ไม่มีวิธีแก้ปัญหาเดียว” Chauhan กล่าว
วิธีการเลเยอร์ยังคงปลอดภัยที่สุดสำหรับการรักษาความปลอดภัยทางไซเบอร์โดยรวม
มันน่าจะเป็นสแต็คขององค์ประกอบความปลอดภัยที่ทำให้การป้องกันที่แข็งแกร่งที่สุดกับ Deepfakes Chauhan กล่าวว่ากลยุทธ์ที่มีการประสานงานอย่างดีอาจรวมถึงการตรวจสอบที่ครอบคลุมเกี่ยวกับเอกสารประจำตัวการตรวจสอบคุณลักษณะของอุปกรณ์สำคัญการรักษาข้อมูลการขาดข้อมูลเป็นปัจจัยเสี่ยงโดยใช้ AI เพื่อระบุภาพปลอมการตรวจจับรูปแบบและการวิเคราะห์ไบโอเมตริกซ์ของภาพถ่ายและวิดีโอ “ ไม่ว่าคุณจะใช้ IDV, การตรวจสอบเอกสารหรือเครื่องมืออื่น ๆ ยิ่งควบคุมและจุดข้อมูลที่คุณมีมากเท่าไหร่ก็ยิ่งยากสำหรับผู้หลอกลวง” Chauhan กล่าว
หัวข้อบทความ
การตรวจจับไบโอเมตริกซ์-ไบโอเมตริกซ์-การตรวจจับ deepfake-เฟลค์-การแลกเปลี่ยนใบหน้า-การป้องกันการฉ้อโกง-AI Generative-ความไม่พอใจ