มีเพียงเศษเสี้ยวเล็ก ๆ ของคน - 0.1 เปอร์เซ็นต์เท่านั้น- แม้จะมีผลลัพธ์ที่น่ากลัวเหล่านี้ประมาณ 60 เปอร์เซ็นต์ของบุคคลกล่าวว่าพวกเขามีความมั่นใจในทักษะการตรวจจับลึกของพวกเขา
ในระหว่างการสำรวจ บริษัท ระบุไบโอเมตริกซ์ขอให้ 2,000 สหราชอาณาจักรและสหรัฐอเมริกามองหา Deepfakes ผลการศึกษาพบว่าคนรุ่นเก่ามีความเสี่ยงต่อการตกต่ำมากขึ้น: หนึ่งในห้าของผู้บริโภคระบุว่าพวกเขาไม่คุ้นเคยกับแนวคิด อย่างไรก็ตามคนหนุ่มสาวมีแนวโน้มที่จะมีความมั่นใจมากเกินไปในความสามารถในการมองเห็นเนื้อหาปลอม
ผลการศึกษาพบว่าองค์กรและผู้บริโภคจำนวนมากมีความเสี่ยงต่อการฉ้อโกงตัวตนตามที่ Andrew Bud ผู้ก่อตั้งและซีอีโอของ IPROOV บริษัท ระบุว่าองค์กรควรใช้โซลูชันที่ใช้ไบโอเมตริกซ์กับการตรวจจับ Livence เพื่อตรวจสอบว่ามีคนเป็นคนจริงหรือไม่
“ แม้ในขณะที่ผู้คนสงสัยว่ามีความลึกซึ้งการวิจัยของเราบอกเราว่าคนส่วนใหญ่ไม่ได้ดำเนินการเลย” Bud กล่าว “ อาชญากรกำลังใช้ประโยชน์จากการไร้ความสามารถของผู้บริโภคในการแยกแยะความแตกต่างจากภาพปลอมทำให้ข้อมูลส่วนบุคคลและความมั่นคงทางการเงินของเราตกอยู่ในความเสี่ยง”
ผู้เข้าร่วมการสำรวจยังมีโอกาสน้อยที่จะเห็นวิดีโอสังเคราะห์น้อยกว่า 36 % เมื่อเทียบกับภาพสังเคราะห์ซึ่งนำไปสู่ข้อสรุปว่าวิดีโอ Deepfake มีความท้าทายมากขึ้นในการระบุเมื่อเทียบกับภาพ
บริษัท ในสหราชอาณาจักรกำลังเผชิญกับการฉ้อโกง Deepfake
รายงานจากผู้ผลิตซอฟต์แวร์ป้องกันการฉ้อโกงTrustpairในทางกลับกันแสดงให้เห็นว่าธุรกิจในสหราชอาณาจักรกำลังเผชิญกับการฉ้อโกงสื่อสังเคราะห์ได้อย่างไร
จากข้อมูลของ บริษัท พบว่า 42 เปอร์เซ็นต์ของ บริษัท ประสบกับการโจมตีที่ประสบความสำเร็จอย่างน้อยสองครั้งด้วย AI Generative และ Deepfakes ในปีที่ผ่านมา การสำรวจขึ้นอยู่กับการสัมภาษณ์กับผู้บริหารด้านการเงินอาวุโสจำนวน 150 คนคลังและบัญชีเจ้าหนี้ทั่วประเทศ
เกือบสามในสี่ของ บริษัท คาดว่าจะมีความเสี่ยงที่จะเติบโตในปี 2568 และเพิ่มการลงทุนในเทคโนโลยีการป้องกันการฉ้อโกง อย่างไรก็ตามมีเพียง 33 เปอร์เซ็นต์ที่ลงทุนในระบบป้องกันการฉ้อโกงอัตโนมัติในขณะที่หลายคนยังคงพึ่งพาวิธีการด้วยตนเองเช่นการโทรกลับและการตรวจสอบทางอีเมล
Trustpair เสนอการตรวจสอบบัญชีผู้ขายอัตโนมัติเพื่อตรวจจับความผิดปกติหรือธุรกรรมที่น่าสงสัย
“ การเพิ่มขึ้นของการฉ้อโกงที่ขับเคลื่อนด้วย AI นั้นต้องการการเปลี่ยนแปลงขั้นพื้นฐานในการที่ธุรกิจเข้าหาความปลอดภัยการชำระเงิน” ทอมแอ็บเบย์ที่ปรึกษาอาวุโสของ Trustpair UK กล่าว “ บริษัท ไม่สามารถพึ่งพาการแทรกแซงของมนุษย์เพียงอย่างเดียวเพื่อต่อต้านการโจมตีที่ซับซ้อนเช่นนี้ ระบบอัตโนมัติเป็นวิธีเดียวที่จะอยู่ข้างหน้าอาชญากรไซเบอร์ได้หนึ่งก้าว”
การพึ่งพาโซเชียลมีเดียอาจนำไปสู่ความอ่อนแอที่มากขึ้นต่อ Deepfakes
การวิจัยใหม่จาก Nanyang Technology University (NTU) ในสิงคโปร์ดูเหมือนจะยืนยันวิทยานิพนธ์ของ IPROOV ว่าผู้คนมีความมั่นใจมากเกินไปในทักษะการตรวจจับ Deepfake
นักวิทยาศาสตร์พบว่าคนที่เห็นวิดีโอ Deepfake เดียวกันหลายครั้งมีแนวโน้มที่จะเชื่อว่าเป็นเรื่องจริง นี่เป็นเพราะผู้คนมีแนวโน้มที่จะเชื่อว่าข้อมูลเป็นจริงหากพวกเขาได้ยินหลายครั้งโดยไม่คำนึงถึงความแม่นยำ ปรากฏการณ์ทางจิตวิทยาเรียกว่า "ผลกระทบความจริงภาพลวงตา"
การศึกษาเกี่ยวข้องกับผู้คนกว่า 8,000 คนจากสิงคโปร์จีนอินโดนีเซียมาเลเซียฟิลิปปินส์ไทยสหรัฐอเมริกาและเวียดนาม ผู้เข้าร่วมแสดงวิดีโอ Deepfake ของไวรัสเกี่ยวกับบุคลิกภาพของสื่อ Kim Kardashian ผู้ก่อตั้ง Meta Mark Zuckerberg ประธานาธิบดีรัสเซียวลาดิมีร์ปูตินและนักแสดงทอมครูซ
ผู้เข้าร่วมเหล่านั้นที่เคยเห็นคนดังของคนดังก่อนการศึกษามีแนวโน้มที่จะเชื่อว่าเนื้อหาของมันมากขึ้นเมื่อพวกเขาได้สัมผัสกับมันอีกครั้ง นักวิจัยของ NTU ยังพบว่าคนที่ได้รับข่าวจากโซเชียลมีเดียสำหรับข่าวแทนที่จะเป็นแหล่งข่าวเฉพาะเช่นเว็บไซต์ข่าวหนังสือพิมพ์และทีวีมีแนวโน้มที่จะยอมรับการเรียกร้องเท็จว่าเป็นจริง
“ เนื่องจากการสัมผัสกับ deepfakes เพียงอย่างเดียวสามารถเสริมความเชื่อที่ผิดพลาดผู้กำหนดนโยบายสามารถพิจารณากลไกทางจิตวิทยา (เช่นผลกระทบความจริงที่ลวงตา) เมื่อพัฒนาแคมเปญการศึกษาที่มุ่งเน้นไปที่การทำลายล้าง Deepfakes” Saifuddin Ahmed ผู้ช่วยศาสตราจารย์ของ NTU กล่าว
การศึกษาได้รับการตีพิมพ์ในวารสาร Broadcasting & Electronic Media
หัวข้อบทความ
----