กรณีศึกษาใหม่ที่ตีพิมพ์โดยรัฐบาลสหราชอาณาจักรไม่ได้พูดถึงคำหรือตัวเลข:“ การเพิ่มขึ้นของ Deepfakes ที่เกิดจากปัญญาประดิษฐ์ (AI) ได้รับการพิจารณาอย่างรวดเร็ว - แปดล้านที่คาดการณ์จะถูกแชร์ในปี 2025 เพิ่มขึ้นจาก 500,000 ในปี 2023 ”
แต่การฉ้อโกงเป็นอาชญากรรมที่สามารถระเบิดได้ในขณะที่ยังไม่มีใครสังเกตเห็น ด้วยการฉ้อโกง Deepfake และวิธีการลับ ๆ ล่อๆอื่น ๆ ในการทำลายความเป็นจริงนั่นคือประเด็น AI Generative ได้ทำการเข้าถึงเครื่องมืออย่างรวดเร็วและเงียบ ๆ และเงียบ ๆราคาถูกและง่ายกว่าที่เคย
เช่น AIกำลังมีความจำเป็นมากขึ้นเรื่อย ๆ จากผู้ที่อยู่ในช่วงท้ายของการฉ้อโกงการฉีดวิดีโอ Deepfake ที่ไม่ถูกต้องไปจนถึงผู้ที่อยู่ในภารกิจเพื่อป้องกันการเผชิญหน้าระหว่างการฉ้อโกงที่เปิดใช้งานเทคโนโลยีและการป้องกันการป้องกันการฉ้อโกงนั้นร้อนแล้วและมีความซับซ้อนมากขึ้นในแต่ละวัน
การฉ้อโกง Deepfake เป็น 'ลำดับความสำคัญของชาติเร่งด่วน' สำหรับสหราชอาณาจักร
ตามกรณีศึกษาของสหราชอาณาจักร“ การหาวิธีในการตรวจจับและบรรเทาภัยคุกคามที่เพิ่มขึ้นเรื่อย ๆ นี้เป็นสิ่งสำคัญเร่งด่วนมากขึ้นเรื่อย ๆ ” สภาพแวดล้อมการเร่งความสามารถของรัฐบาล (ACE) ซึ่งเชื่อมโยงรัฐบาลแนวหน้าและการบังคับใช้กฎหมายด้วยเทคโนโลยีนวัตกรรมคือ“ หัวใจของกิจกรรมนี้ในกิจกรรมที่ออกแบบมาเพื่อค้นหาวิธีแก้ปัญหาที่เป็นประโยชน์เพื่อความท้าทายที่ยิ่งใหญ่ที่สุดของยุคออนไลน์”
Ace มีส่วนร่วมในDeepfake Detection Challengeในความร่วมมือกับโฮมออฟฟิศกรมวิทยาศาสตร์นวัตกรรมและเทคโนโลยีและสถาบันอลันทัวริง ออกแบบเป็นเวิร์กช็อปสำหรับการแก้ปัญหาที่ทันสมัยความท้าทายที่ได้รับเชิญตัวแทนจากสถาบันการศึกษาอุตสาหกรรมและรัฐบาลให้ทำงานร่วมกันในการตอบสนองต่อห้าข้อความท้าทายที่ผลักดันขอบเขตของความสามารถในการตรวจจับ Deepfake ในปัจจุบัน
ตลอดระยะเวลาแปดสัปดาห์ผู้เข้าร่วมใช้แพลตฟอร์มที่กำหนดเองโฮสติ้งสินทรัพย์ของจริงประมาณสองล้านรายการและสำหรับการฝึกอบรม จากการส่งที่เกิดขึ้น 17 ครั้งมีการเน้นว่ามีการพิสูจน์แนวคิดที่แข็งแกร่งและมูลค่าการดำเนินงานที่อาจเกิดขึ้นและขณะนี้อยู่ในการทดสอบมาตรฐานและการทดลองของผู้ใช้ สิ่งเหล่านี้รวมถึงการส่งจาก Frazer-Nash, Oxford Wave, มหาวิทยาลัย Southampton และ Naimuri
ความท้าทายให้ประเด็นสำคัญสองประการ ก่อนอื่นสำหรับการตรวจจับ deepfake ที่มีประสิทธิภาพและมีประสิทธิภาพมากที่สุดมันเป็นสิ่งสำคัญที่จะใช้ curatedที่สะท้อนถึงกรณีการใช้งานในโลกแห่งความเป็นจริง ประการที่สองการทำงานร่วมกันและการแบ่งปันข้อมูลมีความสำคัญอย่างยิ่งต่อความพยายามที่ยิ่งใหญ่
Ace ทำงานร่วมกับ Evita, CSAM Commission
หลังจากความท้าทายในการตรวจจับ Deepfake ACE ได้ดำเนินโครงการสำหรับห้องปฏิบัติการวิทยาศาสตร์กลาโหมและเทคโนโลยี (DSTL) และสำนักงานของหัวหน้าที่ปรึกษาด้านวิทยาศาสตร์ (ออกซิเจน-
บทบาทของ ACE คือการให้คำแนะนำเกี่ยวกับวิธีการ“ เติบโต” เครื่องมือที่เรียกว่า Evita - เครื่องมือตรวจจับเนื้อหา AI สำหรับวิดีโอข้อความและ- ตามกรณีศึกษา“ Ace ใช้ประโยชน์จากความเชี่ยวชาญจาก Deepfake Detection Challenge เพื่อสร้างชุดข้อมูล 'มาตรฐานทองคำ' ที่นำกลับมาใช้ใหม่ได้ ชุดข้อมูลนี้ได้รับการออกแบบมาเพื่อทดสอบแบบจำลองการตรวจจับอย่างมีประสิทธิภาพรวมถึงวัสดุการทารุณกรรมทางเพศเด็ก (CSAM)”
ผลลัพธ์สุดท้ายคือวิธีการทดสอบและประเมินผลที่ทำซ้ำได้สำหรับการตรวจจับ Deepfake
ACE ยังร่วมมือกับ บริษัท พิมพ์เขียว, นิติวิทยาศาสตร์กล้องและ TRMG ในกลยุทธ์การตรวจจับ Deepfake สำหรับ-
-เป็นทั้งการคุกคามที่เพิ่มขึ้นและภัยคุกคามที่พัฒนาขึ้น” องค์กรกล่าวว่า“ แต่การเชื่อมช่องว่างระหว่างแบบจำลองและความเป็นจริงจะมีความสำคัญอย่างยิ่งต่อการจัดการกับพวกเขาในระดับและที่ก้าว เอซลูกค้าและซัพพลายเออร์ยังคงมุ่งเน้นไปที่วิวัฒนาการนี้จากทฤษฎีจนถึงการปฏิบัติ”
IPROOV: เพื่อป้องกันการโจมตีทางชีวภาพเซลฟี่ใช้การตรวจจับ Livence
ในบรรดา บริษัท ที่ได้ดำเนินการในเวอร์ชันของ Deepfake Challenge IPROOV และ Paravision ได้เผยแพร่เนื้อหาที่เพิ่งดูความท้าทายและกรณีการใช้งานที่เฉพาะเจาะจง
การสัมมนาผ่านเว็บล่าสุดจากมีจุดมุ่งหมายที่จะมอง“ Beyond the Selfie”-ซึ่งตามที่ บริษัท ในสหราชอาณาจักรในขณะที่ได้รับความนิยมในฐานะเครื่องมือสำหรับการตรวจสอบตัวตนทางชีวภาพนั้นมีความเสี่ยงต่อภัยคุกคาม AI ที่มีความซับซ้อน หน้าแลกเปลี่ยนการโจมตีแบบฉีดและเทคนิคอื่น ๆ ทำให้ง่ายต่อการจี้ธุรกรรมเอกลักษณ์ที่ขึ้นอยู่กับภาพใบหน้าคงที่
ใน IPROOVการสัมมนาทางเว็บหัวหน้าเจ้าหน้าที่ผลิตภัณฑ์ Peter James กล่าวถึงวิธีการที่องค์กรสามารถพิสูจน์เทคโนโลยีในอนาคตกับการพัฒนาภัยคุกคาม AI Deepfake โดยใช้การตรวจจับ Liveny
การสัมมนาผ่านเว็บแบ่งสิ่งที่จำเป็นสำหรับประสิทธิภาพระบบในบริบทของการพัฒนาภัยคุกคาม AI James กล่าวว่าการจับภาพคุณภาพสูงการวิเคราะห์แบบหลายชั้นและการอัปเดตอย่างรวดเร็วสำหรับการตรวจสอบภัยคุกคามที่มีประสิทธิภาพเป็นองค์ประกอบสำคัญ ระบบจะต้องสามารถเข้าถึงได้ปราศจากอคติและแม่นยำ และการรับรองโดยหน่วยงานมาตรฐานระดับโลกสามารถช่วยให้มั่นใจว่าการปฏิบัติตามความสอดคล้องและความปลอดภัย
Paravision: การตรวจจับ Livence, Deepfake Detection Tools แยกกัน
การสนับสนุนล่าสุดของวาทกรรม Deepfake คือกระดาษสีขาวการสรุปแนวทางในการตรวจจับ Deepfake มันทำให้จุดสำคัญของการแยกแยะระหว่างการตรวจจับ deepfake และการตรวจจับ Livity
Paravisions ผลิตภัณฑ์กล่าวว่า“ การตรวจสอบการปรากฏตัวของการนำเสนอทางกายภาพเช่นหน้ากากหรือจอแสดงผลความละเอียดสูง” ในขณะที่ผลิตภัณฑ์ตรวจจับ deepfake“ เพิ่มชั้นการป้องกันที่สำคัญโดยช่วยระบุและลดภัยคุกคามที่เพิ่มขึ้นของภาพสังเคราะห์หรือ-
เช่นการตรวจจับความมีชีวิตชีวาและการตรวจจับ deepfake ควรได้รับการพิจารณาเทคโนโลยีเสริม “ เทคโนโลยีเหล่านี้ร่วมกันเปิดใช้งานกลยุทธ์การป้องกันที่ครอบคลุมเพื่อให้มั่นใจว่าตัวตนที่ผ่านการตรวจสอบทุกครั้งนั้นมีทั้งชีวิตและเป็นของแท้ วิธีการสองชั้นนี้ไม่เพียง แต่เป็นการก้าวกระโดดที่สำคัญในการป้องกันการฉ้อโกง แต่ยังเป็นขั้นตอนสำคัญในการสร้างความไว้วางใจ-
กระดาษสีขาวยังทำงานผ่านประเภทของประเภท deepfake และกรณีการใช้การตรวจจับเช่นเดียวกับกระบวนการทางเทคนิคของ Paravision สถาปัตยกรรมระบบการเปรียบเทียบความแม่นยำและการใช้ชุดข้อมูลที่มาจากจริยธรรม
การเรียนรู้จากคดีซีอีโอของฮ่องกง 25 ล้านเหรียญสหรัฐ
บางทีกรณีที่น่าอับอายที่สุดในปัจจุบันคือฮ่องกงในกรณีที่พนักงานของ ARUP ถูกหลอกโดยอวตารวิดีโอ Deepfake ของผู้บริหารของ บริษัท ของเขาในการโอนเงิน 25 ล้านเหรียญสหรัฐไปยังบัญชีธนาคารต่างประเทศ
ในสัมภาษณ์ด้วยเวทีเศรษฐกิจโลก Rob Greig เจ้าหน้าที่สารสนเทศหัวหน้าของ Arup กล่าวว่าการโจมตีของฮ่องกง“ ไม่ได้เป็นการโจมตีทางไซเบอร์ในแง่ที่บริสุทธิ์ที่สุด ไม่มีระบบใดที่ถูกบุกรุกและไม่มีข้อมูลที่ได้รับผลกระทบ” Grieg จัดว่าเป็น“ วิศวกรรมสังคมที่ปรับปรุงเทคโนโลยี”
“ ผู้คนถูกหลอกให้เชื่อว่าพวกเขากำลังทำธุรกรรมที่แท้จริงซึ่งส่งผลให้เงินออกจากองค์กร” เขากล่าวโดยสังเกตว่า“ สิ่งนี้เกิดขึ้นบ่อยกว่าที่ผู้คนจำนวนมากตระหนักถึง”
โดยเฉพาะอย่างยิ่งมันไม่ได้เป็นปลายของภูเขาน้ำแข็งมากนักเนื่องจากปลายของดาบปลายปืนติดตั้งกับปืนกลมือ "ถ้าเป็นกระสุน” Grieg กล่าวว่า“ เราทุกคนจะคลานไปรอบ ๆ บนพื้นเพราะพวกเขาจะผ่านหน้าต่างหลายพันรอบวินาที”
ยิ่งไปกว่านั้นคือความสะดวกในการสร้าง หลังจากการโจมตีของฮ่องกง Grieg ค้นพบว่าเขาสามารถสร้างได้อย่างอิสระเทคโนโลยีในเวลาประมาณ 45 นาที)
Grieg กล่าวว่ากลยุทธ์ที่มีประสิทธิภาพในการป้องกันการโจมตี Deepfake นั้นต้องขึ้นอยู่กับการรับรู้ถึงความสามารถทางเทคโนโลยีทั้งสองและสถานะของ:“ ใครมีสิทธิ์เข้าถึงอะไรและเมื่อไหร่? ข้อมูลใดที่กำลังเคลื่อนที่ไปรอบ ๆ องค์กรของคุณ? ใครเชื่อถือได้และอะไรที่ไม่ไว้วางใจ? และกิจกรรมที่ผิดพลาดเกิดขึ้นภายในองค์กร”
การฉ้อโกง Deepfake ภัยคุกคามระหว่างประเทศกระตุ้นการตอบสนองระดับโลก
Deepfakes, อนิจจามีอยู่ทุกหนทุกแห่ง: ใหม่วิจัยจาก บริษัท ป้องกันการฉ้อโกง Trustpair แสดงให้เห็นว่าในปี 2024 การใช้ Deepfakes และ Deepaudio ที่ใช้ AI ที่ใช้ Generative เพิ่มขึ้น 118 % และ 90 เปอร์เซ็นต์ของ บริษัท สหรัฐประสบการฉ้อโกงไซเบอร์
Baptiste Collot ซีอีโอของTrustpairการวิจัยกล่าวว่า“ แสดงให้เห็นว่าการฉ้อโกงไซเบอร์เป็นความจริงที่หลีกเลี่ยงไม่ได้ ในขณะที่ผู้บริหารหลายคนแสดงความมั่นใจในความสามารถขององค์กรในการระบุผู้กระทำความผิดที่มีความซับซ้อน แต่เกือบร้อยละเดียวกันกล่าวว่าองค์กรของพวกเขาประสบกับการโจมตีที่ประสบความสำเร็จ ที่ขยับอย่างต่อเนื่อง บริษัท จำเป็นต้องระมัดระวังและไม่สามารถที่จะพึงพอใจกับการป้องกันของพวกเขา
เช่นเดียวกันกับหน่วยงานบังคับใช้กฎหมาย ตำรวจในเกาหลีใต้ลงทุน 9.1 พันล้านวอน (6.2 ล้านเหรียญสหรัฐ) ในระบบตรวจจับ Deepfake เพื่อตอบสนองต่อการฉ้อโกง Deepfake ที่ได้รับความช่วยเหลือจาก AI Yonhapรายงานโครงการที่ใช้อัลกอริทึมหลายรูปแบบและวิเคราะห์ความถี่และเสียงและเสียงเพื่อตรวจจับวิดีโอ Deepfake และเสียงที่สร้างขึ้นโดย Ai นั้นจะเสร็จสิ้นภายในเดือนธันวาคมปี 2027
ตามรายงานในช่วง 10 เดือนแรกของปี 2567 ตำรวจจับกุมผู้ต้องสงสัย 573 คนเกี่ยวกับอาชญากรรมทางเพศ 1,094 ครั้งที่เกี่ยวข้องกับวัยรุ่นและผู้เยาว์
หัวข้อบทความ
-------