การฉ้อโกง Deepfake ได้พิสูจน์ให้เห็นถึงศักยภาพในการทำธุรกิจหลายล้านดอลลาร์ แต่ Deepfake Dread ก้องกังวานผ่านวงกลมเทคโนโลยีนั้นเกินกว่าพ็อกเก็ตบุ๊ค ด้วยความสามารถในการร่วมมือกับตัวตนของใครบางคนโดยไม่ได้รับความยินยอมเพื่อหลอกลวงและขัดขวางกระบวนการทางเศรษฐกิจและการเมืองเฟลค์กำลังหนักใจในระดับที่มีอยู่ พูดง่ายๆคือพวกเขาน่าขนลุก
และตามที่ผู้นำด้านความปลอดภัยตรวจสอบภูมิทัศน์ของ Deepfake พวกเขาจะได้รับความคืบคลานขึ้นเท่านั้น เทคโนโลยีกำลังพัฒนาแบบทวีคูณและกลยุทธ์การฉ้อโกงตัวตนใหม่กำลังเกิดขึ้นด้วยความเร็ว Generative AI ซึ่งผู้บริหารหลายคนหวังว่าอาจจะเป็นแฟชั่นที่ผ่านไปได้เปลี่ยนไปสู่ภัยคุกคามที่พบบ่อยมากขึ้น และในขณะที่ AI-basedการตรวจจับ deepfakeมีเครื่องมือที่มีอยู่พวกเขาไม่ได้รับประกันว่าจะมีการดำเนินการตามมาตรการการกำกับดูแลเกี่ยวกับข้อมูลลูกค้าที่สอดคล้องกับนโยบายขององค์กร
รายงาน IDOLOGY แสดงความกังวลอย่างกว้างขวางเกี่ยวกับการกำเนิด AI
ข้อมูลใหม่จากไอดอลโลจีส่องแสงใน“ ระดับอุตสาหกรรม” ของการฉ้อโกงที่ถูกสร้างขึ้นด้วยตัวตนสังเคราะห์ที่สร้างขึ้นโดยใช้ AI Generative การเปิดตัวการวิจัยกล่าวว่า 45 เปอร์เซ็นต์ของ FinTechs รายงานเพิ่มขึ้นการฉ้อโกงตัวตนสังเคราะห์ในช่วง 12 เดือนที่ผ่านมาและครึ่งหนึ่งมีความกังวลอย่างเต็มที่ว่า Genai จะสร้างอัตลักษณ์สังเคราะห์ที่น่าเชื่อถือมากขึ้นและ Deepfakes ที่ดีขึ้น
ตามการเปิดตัว“ Genai ทำให้อาชญากรมีเส้นทางสู่การทำงานเร็วขึ้นการโจมตีขนาดและสร้างการหลอกลวงฟิชชิ่งที่น่าเชื่อถือและอัตลักษณ์สังเคราะห์” และมันเป็นเพียงจุดเริ่มต้นเท่านั้น: ธุรกิจเห็นการโจมตีที่ขับเคลื่อนด้วย AI แบบกำเนิดเป็นแนวโน้มการฉ้อโกงที่โดดเด่นในอีก 3-5 ปีข้างหน้า
การตอบสนองจาก Idology เป็นเสียงเรียกร้องที่คุ้นเคย:ใช้ AI เพื่อต่อสู้กับ AI-
“ ตัวเลขเหล่านี้บ่งบอกถึงความจำเป็นในการดำเนินการ” James Bruni กรรมการผู้จัดการของ GBG Idology กล่าว “ ในขณะที่ Gen AI กำลังถูกนำมาใช้เพื่อเพิ่มกลยุทธ์การฉ้อโกงความสามารถในการตรวจสอบข้อมูลจำนวนมากอย่างรวดเร็วอาจเป็นประโยชน์สำหรับ fintechs ทำให้พวกเขาสามารถติดตามอัตลักษณ์ที่เชื่อถือได้อย่างรวดเร็ว นอกเหนือจากการป้องกันการฉ้อโกงประเภทที่ยากต่อการตรวจจับเช่นสังเคราะห์การฉ้อโกงตัวตน-
FS-ISAC เสนออนุกรมวิธานภัยคุกคามที่ลึกล้ำ
Deepfake Drum ยังคงเต้นอย่างต่อเนื่องด้วยการเปิดตัวรายงานใหม่จากศูนย์การแบ่งปันข้อมูลและการวิเคราะห์ข้อมูลทางการเงิน (ศูนย์วิเคราะห์ (FS-ISAC) กลุ่มอุตสาหกรรมที่อุทิศตนเพื่อลดความเสี่ยงในโลกไซเบอร์ในภาคการเงินทั่วโลก จัดทำโดยคณะทำงานด้านความเสี่ยงด้านปัญญาประดิษฐ์ของ FS-ISAC "Deepfakes ในภาคการเงิน: การทำความเข้าใจกับภัยคุกคามการจัดการความเสี่ยง” สรุปหมวดหมู่ที่กว้างและ“ ภาษาทั่วไปของภัยคุกคามและการควบคุมที่ลึกล้ำเพื่อตอบโต้พวกเขา”
เช่นเดียวกับอุตสาหกรรมใด ๆ บริการทางการเงินนำบริบทเฉพาะของตัวเองสำหรับการฉ้อโกง Deepfake หนึ่งในเทคนิคใหม่ที่น่ากลัวที่สุดคือ Deepfakeการฉ้อโกงวิดีโอ CEOหรือโดยทั่วไปแล้ว“ การแอบอ้าง C-suite” Biometrics ของลูกค้าเป็นเป้าหมายและธนาคารเป็นทองคำของตัวเองสำหรับผู้กระทำความผิดที่ก่อให้เกิดการฉ้อโกงผู้บริโภคซึ่งมักจะกระทำผ่านระบบการตรวจสอบด้วยเสียง โครงสร้างพื้นฐานสามารถโจมตีได้และแบบจำลองการตรวจจับ Deepfake นั้นมักจะอยู่ในกากบาท
ความเสี่ยงมีความหลากหลาย: ตลาดที่ไม่มั่นคงมีค่าใช้จ่ายสูงการละเมิดข้อมูลความอัปยศอดสูนำไปสู่ความเสียหายที่มีชื่อเสียง
กระดาษของ Meat of Idology เป็นอนุกรมวิธานภัยคุกคามที่ลึกล้ำซึ่งทำลายการคุกคามต่อองค์กรตามหมวดหมู่ “ อนุกรมวิธาน FS-ISAC Deepfake ครอบคลุมสองหัวข้อ” กระดาษกล่าว “ ภัยคุกคามทั้งหกที่ บริษัท ผู้ให้บริการทางการเงินต้องเผชิญจาก Deepfakes” และ“ เวกเตอร์การโจมตีหลักสามครั้งที่กำหนดเป้าหมายเทคโนโลยีที่ตรวจจับและป้องกัน Deepfakes” แต่ละหมวดหมู่ที่กำหนดไว้มีหมวดหมู่ย่อยจำนวนหนึ่งซึ่งรวมกันให้มุมมองที่กว้างขวางของโดยรวมระบบนิเวศการฉ้อโกง Deepfake-
“ การทำความเข้าใจกับภัยคุกคามประเภทต่าง ๆ ที่เกิดจาก Deepfakes และวิธีการที่พวกเขาสามารถทำ taxonomized ชี้แจงประเภทของการควบคุมที่เหมาะสมที่สุดในการป้องกัน” บทความกล่าว “ สถาบันบริการทางการเงินควรดำเนินการสร้างแบบจำลองภัยคุกคามที่สมบูรณ์สำหรับแต่ละหมวดหมู่ภัยคุกคาม” ตารางกลไกการควบคุมที่สอดคล้องกันทำให้โมเสคเสร็จสมบูรณ์
ที่ต่อสู้กับ DeepfakesFS-ISAC กล่าวว่าจะต้องมีความร่วมมือระมัดระวังและคล่องแคล่วว่องไว “ ในขณะที่ภัยคุกคามที่เกิดจาก Deepfakes ไปยังสถาบันการเงินนั้นมีความสำคัญและมีการพัฒนา
วิธีการเชิงรุกหลายแง่มุมเพื่อความปลอดภัยสามารถลดความเสี่ยงเหล่านี้ได้อย่างมาก เส้นทางไปข้างหน้าอยู่ในการปรับปรุงอย่างต่อเนื่องของเทคโนโลยีการตรวจจับควบคู่ไปกับแนวทางปฏิบัติด้านความปลอดภัยที่แข็งแกร่งและโปรแกรมการรับรู้ที่ครอบคลุม”
การฉ้อโกง Deepfake ขั้นสูงเร็ว ๆ นี้เพื่อหลอกแม่ของทุกคน
หนึ่งบทความจาก Fortune.com ร้องขอความคิดเห็นเกี่ยวกับภัยคุกคามที่ลึกล้ำจากหัวหน้าไซเบอร์ที่ SoftBankมาสเตอร์การ์ดและมานุษยวิทยา - และการวินิจฉัยก็น่ากลัวแนะนำว่าเราได้เข้าสู่“ สงครามเย็น AI”
“ คุณมีหน่วยงานอาชญากรรมเคลื่อนไหวอย่างรวดเร็วโดยใช้ AI เพื่อหาภัยคุกคามและวิธีการใหม่ ๆ ในการสร้างรายได้” Gary Hayslip หัวหน้าเจ้าหน้าที่รักษาความปลอดภัยของ บริษัท Investment Holding Company SoftBank กล่าว “ ในทางกลับกันก็ผลักดันเรากลับมาพร้อมกับการละเมิดและเหตุการณ์ที่เรามีซึ่งผลักดันให้เราพัฒนาเทคโนโลยีใหม่”
“ ในทางที่มันเป็นเหมือนคลื่นยักษ์” Hislip พูดถึงอัตราที่ใหม่เทคโนโลยี AIกำลังทะลักเข้าสู่ตลาด
การตรวจจับการฉ้อโกงก็มีการปรับปรุงเช่นกัน แต่ บริษัท ต่าง ๆ มีความกังวลเกี่ยวกับสิ่งที่ผู้ขาย AI ของบุคคลที่สามได้รับอนุญาตให้ทำกับข้อมูลที่พวกเขารวบรวม Hislip กล่าวว่าคุณ“ ต้องหวาดระแวงเล็กน้อย” ในการประเมินว่าเครื่องมือและบริการใดที่รวมเข้ากับระบบนิเวศความปลอดภัยของ บริษัท ผลิตภัณฑ์บางอย่างจะนำมาซึ่งความเสี่ยงที่ยอมรับไม่ได้โดยเฉพาะอย่างยิ่งในอุตสาหกรรมที่มีการควบคุมสูงเช่นการดูแลสุขภาพ
ในขณะเดียวกัน Alissa Abdullah รอง CSO ที่ MasterCard กล่าวว่าการหลอกลวง Deepfake กำลังดีขึ้นและหลากหลายมากขึ้น เธออธิบายเทคนิคการโจมตีที่เกิดขึ้นใหม่ซึ่งวิดีโอ AI และเสียง Deepfakesนำเสนอในฐานะคนแปลกหน้าจากแบรนด์ที่เชื่อถือได้เช่นตัวแทนแผนกช่วยเหลือ
“ พวกเขาจะโทรหาคุณและพูดว่า 'เราต้องรับรองความถูกต้องของคุณในระบบของเรา' และขอ $ 20 เพื่อลบ 'การแจ้งเตือนการฉ้อโกง' ที่อยู่ในบัญชีของฉัน” อับดุลลาห์กล่าว “ ไม่ต้องการ $ 20 พันล้านใน bitcoin แต่ $ 20 จาก 1,000 คน - จำนวนเล็กน้อยที่แม้แต่คนอย่างแม่ของฉันก็ยินดีที่จะพูดว่า 'ให้ฉันเพียงแค่มอบให้คุณ'”
หัวข้อบทความ
ไบโอเมตริกซ์-การตรวจจับ deepfake-เฟลค์-บริการทางการเงิน-การป้องกันการฉ้อโกง-ไอดอลโลจี-ข้อมูลสังเคราะห์-การฉ้อโกงตัวตนสังเคราะห์