ความแพร่หลายที่เพิ่มขึ้นของ generative AI ได้ปลดล็อกศักยภาพเชิงบวกในอุตสาหกรรมต่างๆ แต่ยังขยายความท้าทาย โดยเฉพาะอย่างยิ่งเกี่ยวกับการฉ้อโกงข้อมูลประจำตัวและความไว้วางใจในธุรกรรมดิจิทัล ในการสัมมนาผ่านเว็บในสัปดาห์นี้ ผู้นำอุตสาหกรรมจาก Proof and Reality Defender กล่าวถึงการเปลี่ยนแปลงวิธีการฉ้อโกงที่ขับเคลื่อนด้วย AI และมาตรการที่จำเป็นในการจัดการกับภัยคุกคามที่เกิดขึ้นใหม่
Kelly Pidhirsky รองประธานที่ปรึกษาด้านโซลูชันที่เน้นย้ำถึงการเดินทางของบริษัทตั้งแต่รากฐานในฐานะ Notarize ไปจนถึงการเป็นแพลตฟอร์มที่เน้นการรักษาปฏิสัมพันธ์ทางดิจิทัลที่มีมูลค่าสูง
“เราเริ่มต้นจากการเป็นบริษัทแรกที่นำการรับรองทางกฎหมายมาสู่ออนไลน์ และตั้งแต่นั้นมา เราก็ได้ปฏิวัติกระบวนการผูกกระดาษแบบดั้งเดิมอย่างแท้จริง และทั้งหมดนี้เป็นเรื่องของการกำหนดมาตรฐานใหม่สำหรับการโต้ตอบทางดิจิทัล” Pidhirsky กล่าว “ก้าวไปข้างหน้าอย่างรวดเร็วในวันนี้ และเป็นมากกว่าการรับรองเอกสารออนไลน์ ไม่ใช่ว่าไม่สำคัญอย่างไม่น่าเชื่อ แต่ยังยังคงเป็นรากฐาน แต่ตอนนี้เราทุกคนกำลังกลายเป็นแพลตฟอร์มที่ครอบคลุมและเน้นเอกลักษณ์เป็นศูนย์กลาง”
เครือข่ายการอนุญาตตัวตนของ Proofผูกมัดข้อมูลประจำตัวในโลกแห่งความเป็นจริงที่ได้รับการตรวจสอบแล้วกับเอกสารดิจิทัลโดยเข้ารหัส โดยมีเป้าหมายเพื่อลดการฉ้อโกงและรับรองการปฏิบัติตามข้อกำหนด ด้วยฐานลูกค้าที่ครอบคลุมองค์กรมากกว่า 7,000 แห่ง รวมถึงสถาบันการเงิน ผู้ให้บริการด้านสุขภาพ และบริษัทอสังหาริมทรัพย์ Proof ได้กำหนดนิยามใหม่ของความไว้วางใจในสภาพแวดล้อมเสมือนจริง
ฉันทามติทั่วไปจากผู้ร่วมอภิปรายก็คือ generative AI มีการพัฒนาอย่างมีนัยสำคัญแบบเรียลไทม์ปรากฏเป็นพรมแดนต่อไป แม้ว่าข้อจำกัดก่อนหน้านี้ เช่น ข้อผิดพลาดในมุมใบหน้าที่รุนแรงหรือการกระทำ เช่น การสัมผัสเส้นผม จะปรากฏชัดแม้เมื่อหกเดือนที่แล้ว แต่ความก้าวหน้าล่าสุดได้เอาชนะอุปสรรคเหล่านี้ได้ ความคืบหน้านี้ช่วยให้ผู้ฉ้อโกงสามารถปลอมแปลงเป็นบุคคลได้อย่างน่าเชื่อถือแบบเรียลไทม์ ซึ่งเป็นความสำเร็จที่ต้องใช้การฝึกอบรมที่ซับซ้อนและทรัพยากรการคำนวณ
“การเพิ่มขึ้นของ generative AI ทำให้ปัญหาความน่าเชื่อถือของข้อมูลประจำตัวรุนแรงขึ้น” Pidhirsky กล่าวเสริม โดยชี้ไปที่ความสะดวกที่ผู้ไม่ประสงค์ดีสามารถใช้ประโยชน์จากเครื่องมือขั้นสูงเพื่อแอบอ้างเป็นบุคคลและบ่อนทำลายโปรโตคอล KYC (Know Your Customer) “KYC เพียงอย่างเดียวไม่เพียงพอ” เธอเตือนโดยอ้างถึงการขาดทุนต่อปี 81 พันล้านดอลลาร์เกิดจากการฉ้อโกงที่เกี่ยวข้องกับข้อมูลประจำตัว
ต่อสู้กับภัยคุกคามที่ล้ำลึก
เมสัน อัลเลน หัวหน้าฝ่ายขายของกล่าวถึงความซับซ้อนที่เพิ่มขึ้นของเทคโนโลยี Deepfake ซึ่งพัฒนาจากการเลียนแบบทางดิจิทัลอย่างหยาบๆ ไปสู่การจัดการที่สมจริงเกินจริงซึ่งสามารถบ่อนทำลายระบบขององค์กรและระบบภาครัฐได้ Reality Defender บริษัทรักษาความปลอดภัยทางไซเบอร์ในนิวยอร์ก ใช้วิธีการหลายรูปแบบในการตรวจจับสัญญาณของสื่อสังเคราะห์แบบเรียลไทม์ โดยเสนอการป้องกันกิจกรรมฉ้อโกงในการขยายการระดมทุนซีรีส์ A เมื่อเดือนที่แล้ว โมเดลการตรวจจับ AI ของบริษัท ซึ่งได้รับการฝึกฝนจากชุดข้อมูลขนาดใหญ่ ช่วยให้สามารถระบุการปลอมแปลงปลอมได้แบบเรียลไทม์ในช่วงเวลาวิกฤติของการตรวจสอบผู้ใช้
“Deepfakes เป็นการทำซ้ำครั้งถัดไปของเกมแมวจับหนูที่คล้ายกับซอฟต์แวร์ป้องกันไวรัส” Allen กล่าว โดยอธิบายว่า Reality Defender ปรับตัวเข้ากับเทคนิค Deepfake ที่เกิดขึ้นใหม่อย่างต่อเนื่องได้อย่างไร เขาเน้นย้ำถึงระดับที่น่าตกใจของปัญหาโดยอ้างอิงถึงการฉ้อโกง AI ทั่วไปอาจกลายเป็นความท้าทายประจำปีมูลค่า 4 หมื่นล้านดอลลาร์ภายในปี 2570
ในบริบททางการเงิน แฮงเอาท์วิดีโอแบบเรียลไทม์มักใช้สำหรับกระบวนการ KYC และธุรกรรมที่มีมูลค่าสูง อย่างไรก็ตาม ผู้ฉ้อโกงได้เริ่มใช้ประโยชน์จากกลไกเหล่านี้ ตัวอย่างเช่น การหลอกลวงแบบ Deepfake เมื่อต้นปีนี้เกี่ยวข้องกับการแอบอ้างเป็นประธานเจ้าหน้าที่ฝ่ายการเงินและเจ้าหน้าที่สองคนในการโทรผ่าน Zoom แบบเรียลไทม์ ซึ่งส่งผลให้มีการโจรกรรมเงินจำนวน 25 ล้านดอลลาร์ เหตุการณ์ดังกล่าวเน้นให้เห็นถึงช่องโหว่ของระบบการยืนยันตัวตนที่มีอยู่
ความเสี่ยงขยายไปไกลกว่าอาชญากรรมทางการเงิน เทคโนโลยี Deepfake ถูกนำมาใช้เพื่อแอบอ้างเป็นซีอีโอในการหลอกลวงและแคมเปญการให้ข้อมูลที่ไม่ถูกต้อง โดยใช้ประโยชน์จากข้อมูลเสียงและภาพที่เปิดเผยต่อสาธารณะของผู้บริหาร แม้แต่บุคคลที่มีชื่อเสียงโด่งดังอย่างเบน คาร์ดิน วุฒิสมาชิกสหรัฐฯ ตกเป็นเหยื่อของ Deepfakeโดยมีเหตุการณ์ล่าสุดที่เกี่ยวข้องกับการโต้ตอบปลอมๆ กับเจ้าหน้าที่ยูเครนที่ถูกกล่าวหา
แพลตฟอร์ม AI เจนเนอเรชั่น เช่น Runway และ ChatGPT มีความก้าวหน้าอย่างรวดเร็ว ทำให้ยากต่อการแยกแยะระหว่างสื่อจริงกับสื่อสังเคราะห์ Allen อธิบายสิ่งนี้ด้วยตัวอย่างความก้าวหน้าในเทคโนโลยีการสร้างวิดีโอ โดยสังเกตว่า Deepfakes มีการพัฒนาไปจนแยกไม่ออกจากเนื้อหาที่แท้จริงได้อย่างไร แม้ว่าเครื่องมือเหล่านี้จะเพิ่มความคิดสร้างสรรค์และประสิทธิภาพ แต่ยังเสริมศักยภาพให้กับผู้ไม่ประสงค์ดีในการขยายการโจมตีทางวิศวกรรมสังคมและการฉ้อโกงทางการเงินโดยใช้ความเชี่ยวชาญด้านเทคนิคเพียงเล็กน้อย
คำกระตุ้นการตัดสินใจ
วิทยากรได้แบ่งปันคำกระตุ้นการตัดสินใจ: การประเมินระบบการยืนยันตัวตนทางดิจิทัลอีกครั้งเพื่อแก้ไขช่องโหว่ที่ถูกเปิดเผยโดย generative AI Pidhirsky เน้นย้ำถึงความสำคัญของการตรวจสอบ “บุคคลปัจจุบันที่ยังมีชีวิตอยู่” ที่อยู่เบื้องหลังเอกสาร ในขณะที่ Allen เน้นย้ำถึงความจำเป็นที่องค์กรต่างๆ ต้องใช้มาตรการเชิงรุกในการระบุและลดความเสี่ยงจากการปลอมแปลงเชิงลึก
“AI เจนเนอเรชั่นไม่ได้เป็นเพียงปัญหาในอนาคต แต่เป็นความจริงในปัจจุบัน” Pidhirsky เตือน การสัมมนาผ่านเว็บสนับสนุนการทำงานร่วมกันที่เพิ่มขึ้นระหว่างผู้ให้บริการเทคโนโลยีและผู้มีส่วนได้ส่วนเสีย เพื่อรักษาปฏิสัมพันธ์ทางดิจิทัลจากภัยคุกคามที่ซับซ้อนมากขึ้น
ยังได้แนะนำเครื่องมือในการจัดการกับความเสี่ยงจากการฉ้อโกง ตัวอย่างเช่น,เปิดตัวบริการยืนยันตัวตนบนคลาวด์ที่รองรับการตรวจสอบไบโอเมตริกซ์มุ่งเน้นไปที่ข้อมูลเชิงลึกเกี่ยวกับการฉ้อโกงที่ได้มาจากการวิเคราะห์พฤติกรรม นอกจากนี้ การป้องกัน Deepfake ของ Proof's Verify ยังมีจุดมุ่งหมายเพื่อลดความเสี่ยงของกิจกรรมฉ้อโกง เช่น Deepfake โดยทำให้แน่ใจว่าผู้ใช้นั้นถูกต้องตามกฎหมาย
แพลตฟอร์ม Verify ของ Proof ให้บริการมากกว่า 7,000 องค์กร รวมถึงสถาบันการเงิน ผู้ให้บริการด้านการดูแลสุขภาพ ธุรกิจขนาดเล็ก และหน่วยงานภาครัฐ
ผู้เชี่ยวชาญยังสนับสนุนให้มีการติดตามอย่างต่อเนื่องและการประเมินความเสี่ยงแบบไดนามิกเป็นกลยุทธ์หลัก เทคโนโลยีที่ยืนยันตัวตนผ่านวิดีโอ เสียง และรูปแบบพฤติกรรมแบบเรียลไทม์สามารถช่วยป้องกันการโจมตีในขณะที่ยังคงรักษาความสะดวกในการใช้งานสำหรับผู้ใช้ที่แท้จริง
เมื่อเทคโนโลยี Deepfake สามารถเข้าถึงได้มากขึ้น โอกาสในการนำไปใช้ในทางที่ผิดก็มีแนวโน้มที่จะเพิ่มมากขึ้น
หัวข้อบทความ
----------