ภัยคุกคามจากดีพเฟคกำลังเข้าสู่การอภิปรายระดับสูงตั้งแต่เอเชียตะวันออกเฉียงใต้ไปจนถึงดาวอส
สมาคมประชาชาติแห่งเอเชียตะวันออกเฉียงใต้ (อาเซียน) ได้เปิดตัวแนวทางเพิ่มเติมเกี่ยวกับการกำกับดูแลและจริยธรรมสำหรับ AI สร้างสรรค์ รวมถึงข้อเสนอแนะนโยบายโดยสมัครใจเกี่ยวกับความเสี่ยงและการใช้งานอย่างรับผิดชอบ
คู่มือนี้จัดทำขึ้นจากเอกสารปี 2024 อธิบายว่าเทคโนโลยีดังกล่าวก่อให้เกิดความเสี่ยงหลัก 6 ประการ ได้แก่ Deepfakes การละเมิดทรัพย์สินทางปัญญา (IP) อคติที่ฝังแน่น ความไม่ถูกต้องของข้อเท็จจริง ตลอดจนปัญหาเกี่ยวกับความเป็นส่วนตัวและการรักษาความลับ ข้อผิดพลาด และมานุษยวิทยา นอกจากนี้ยังอธิบายความเสี่ยงด้านขอบเขตและเชิงระบบที่เชื่อมโยงกับวิวัฒนาการระยะยาวของโมเดล AI ขั้นสูงตามถึงพนมเปญโพสต์
เอกสารฉบับปรับปรุงนี้เผยแพร่ในการประชุมรัฐมนตรีดิจิทัลอาเซียนปี 2568 ที่กรุงเทพฯ ประเทศไทยในสัปดาห์นี้ ภายในงาน องค์กรต่างๆ ยังได้เผยแพร่ซึ่งให้คำมั่นว่าจะส่งเสริมการลงทุนในระดับภูมิภาคในเทคโนโลยีเกิดใหม่ เช่น AI ส่งเสริมการทำงานร่วมกันเกี่ยวกับการหลอกลวงออนไลน์ และการไหลเวียนของข้อมูลอย่างเสรีภายในภูมิภาค
บริษัทรักษาความปลอดภัยทางไซเบอร์เตือนถึงภัยคุกคามแบบ Deepfake
นอกรอบการประชุมเศรษฐกิจโลก () ในเมืองดาวอส ประเทศสวิตเซอร์แลนด์ ตัวแทนอุตสาหกรรมความปลอดภัยทางไซเบอร์ยังได้แบ่งปันมุมมองเกี่ยวกับผลกระทบของ Deepfakes
การโจมตีด้านความปลอดภัยทางไซเบอร์กำลังเพิ่มสูงขึ้น กล่าวซอฟต์แวร์ตรวจสอบจุดประธานาธิบดีรูปาล ชาห์ ฮอลเลนเบ็ค แต่ในขณะที่องค์กร 67 เปอร์เซ็นต์ในแบบสำรวจของบริษัทเชื่อว่า AI จะมีผลกระทบต่อความปลอดภัยมากที่สุด มีเพียง 30 เปอร์เซ็นต์เท่านั้นที่ทำอะไรเกี่ยวกับเรื่องนี้
“ส่วนหนึ่งเป็นเพราะพวกเขาไม่รู้ว่าต้องทำอะไร” เธอกล่าว ในขณะเดียวกัน เครื่องมือ AI เชิงสร้างสรรค์กำลังมีความซับซ้อนมากขึ้น และผู้ร้ายก็เริ่มเร็วขึ้น
การสำรวจของ Check Point ยังแสดงให้เห็นว่าการโจมตีทางไซเบอร์เพิ่มขึ้น 44 เปอร์เซ็นต์ในช่วงปี 2566 ถึง 2567 โดยจำนวนที่เพิ่มขึ้นนั้นเป็นแรนซัมแวร์ ซึ่งเพิ่มขึ้น 90 เปอร์เซ็นต์เมื่อเทียบเป็นรายปี Shah Hollenback กล่าวเสริม
คำเตือนที่คล้ายกันเกี่ยวกับ Deepfakes มาจาก- ในรูปแบบใหม่โพสต์ในบล็อกบริษัทด้านการมองเห็นด้วย AI กล่าวว่าเทคโนโลยีการจดจำใบหน้าให้เหตุผลว่าการจดจำใบหน้าแบบดั้งเดิม ซึ่งไม่สามารถตรวจจับได้ว่าใบหน้านั้นเป็นของจริงหรือไม่ นั้นไม่เพียงพอที่จะต่อสู้กับการฉ้อโกงและการเข้าถึงโดยไม่ได้รับอนุญาต
ผู้โจมตีทางไซเบอร์กำลังพัฒนาวิธีการใหม่ ๆ อย่างต่อเนื่องในการสร้างใบหน้าปลอมและล้มล้างระบบระบุตัวตนด้วยความช่วยเหลือของ generative AI, deepfakes และรูปภาพสังเคราะห์ ซึ่งหมายความว่านักพัฒนาการตรวจสอบและระบุตัวตนด้วยไบโอเมตริกจะต้องเพิ่มความสามารถหลายชั้น เช่น ความมีชีวิตชีวาและการตรวจจับ Deepfake
นอกจากนี้ คุณสมบัติเหล่านี้ควรได้รับการเสริมร่วมกับเทคโนโลยีป้องกันการฉ้อโกงอื่นๆ ข้อมูลระบุตัวตนสังเคราะห์อาจรวมถึงข้อมูลที่ประดิษฐ์ขึ้น เช่น ที่อยู่หรือประวัติเครดิต ซึ่งต้องใช้โซลูชันที่จะดำเนินการตรวจสอบเอกสารและข้อมูลด้วย
“ในกรณีที่เทคโนโลยีหนึ่งอาจสะดุด อีกเทคโนโลยีหนึ่งก็จะรับช่วงที่หย่อนยาน เพื่อให้มั่นใจว่าผู้ฉ้อโกงไม่สามารถหลีกเลี่ยงมาตรการรักษาความปลอดภัยได้ ไม่ว่าเทคนิคของพวกเขาจะซับซ้อนแค่ไหนก็ตาม” Paravision กล่าว
หัวข้อบทความ
--------