ใครก็ตามที่อ่านคลาสสิกMoby Dickรู้ว่าปลาวาฬยากที่จะจับ - แต่ถ้าคุณจับหนึ่งผลตอบแทนก็มากมาย เมื่อมันไปกับสัตว์จำพวกวาฬดังนั้นมันจึงไปกับการฉ้อโกงการแอบอ้างผู้บริหาร ใหม่โพสต์จากดูยุคใหม่ของ“ การโจมตีล่าวาฬ” ซึ่งขับเคลื่อนด้วยความก้าวหน้าใน AI กำเนิดและเครื่องยนต์ Deepfake ที่มีให้บริการอย่างอิสระ
เป็นที่น่าสังเกตว่า“ ปลาวาฬ” ในการล่าวาฬไม่จำเป็นต้องเป็นผู้บริหาร แต่การจ่ายเงินขนาดของ Moby Dick ที่จะพบในการแกล้งทำเป็นผู้รับผิดชอบ Fraudsters ใช้อัตลักษณ์ที่ถูกขโมยหรือถูกจี้ของผู้บริหารระดับสูงเพื่อสั่งให้พนักงานโอนเงินก้อนดังกล่าวในกรณีของบริษัท ในสหราชอาณาจักรนั้นมีค่าใช้จ่าย 25 ล้านเหรียญสหรัฐในการถ่ายโอนการฉ้อโกงจากสำนักงานฮ่องกง ในเรื่องนี้ Whalers น้อยกว่า Ahab และเป็นเหมือนตัวเอกของเนินทรายซีรีส์ Paul Atreides ขี่หนอนแซนด์ยักษ์เพื่อโจมตีสิ่งมีชีวิตที่ต่ำกว่า
อย่างไรก็ตาม“ การโจมตีหนอนแฝั่งยักษ์” ยังไม่ได้เป็นอะไร- สำหรับตอนนี้มันเป็นปลาวาฬในระดับที่ยิ่งใหญ่กว่า “ เมื่อ จำกัด เฉพาะอีเมลที่ฉ้อโกงที่วางตัวเป็นคำขอเร่งด่วนจากผู้บริหารอาชญากรไซเบอร์ในขณะนี้ใช้ประโยชน์จาก AI ที่เกิดขึ้นเพื่อใช้ประโยชน์จากเสียงความคล้ายคลึงและตัวตนดิจิทัล” ผู้พิทักษ์ความเป็นจริงกล่าว “ กรณีของการฉ้อโกงที่ขับเคลื่อนด้วย AI ที่ใช้การแอบอ้างเป็นผู้บริหารเป็นบัญชีของ บริษัท ที่ระบายออกอย่างแข็งขันเปิดเผยข้อมูลที่เป็นความลับและทำลายความสมบูรณ์ของแบรนด์”
บริษัท ตรวจจับ Deepfake ในนิวยอร์กระบุเวกเตอร์โจมตีหลักสามตัวสำหรับ Whalers มีการตกปลาหรือเสียงฟิชชิ่งซึ่งสร้างขึ้นด้วยเครื่องมือเสียง AI ที่เลียนแบบผู้บริหารที่น่าเชื่อถือ การใช้ประโยชน์จากการประชุมทางวิดีโอดูผู้ที่ฉ้อโกงที่ฉีดผู้เข้าร่วมปลอมเข้าสู่การประชุม (เช่นกรณีในฮ่องกง) สำหรับผู้โจมตีการจัดการแบรนด์ผู้บริหาร“ ใช้หากต้องการเลียนแบบผู้นำองค์กรบนแพลตฟอร์มสาธารณะเปิดตัวแคมเปญการบิดเบือนข้อมูลหรือมีส่วนร่วมในการฉ้อโกงทางการเงิน”
บล็อกอ้างถึงการวิจัยจาก TrueCaller แสดงให้เห็นว่าการฉ้อโกงด้วยเสียงส่งผลให้เกิดการสูญเสีย 25 พันล้านเหรียญสหรัฐ -การโจมตีเหยื่อเกี่ยวกับจิตวิทยามนุษย์และความคาดหวังในสถานที่ทำงาน” กล่าวว่า“ พนักงานที่ได้รับการฝึกฝนมาอย่างดีอาจตั้งคำถามกับคำขอทางอีเมลสำหรับเงินทุน แต่เมื่อเสียงในบรรทัดฟังดูเหมือน CFO ของพวกเขาการตัดสินใจที่จะปฏิบัติตามรู้สึกเป็นธรรมชาติ”
ในบางกรณีผู้บริหารเป็นปลาวาฬ “ ผู้โจมตีไม่เพียง แต่ปลอมตัวเป็นผู้นำในการหลอกลวงพนักงาน - พวกเขาสร้างเวอร์ชั่นของที่ปรึกษากฎหมายหรือหน่วยงานกำกับดูแลเพื่อผลิตความรู้สึกเร่งด่วนและจัดการกับผู้บริหารในการดำเนินการที่มีความเสี่ยงสูงซึ่งส่งผลกระทบต่อ บริษัท ในระดับสูงสุด”
ในทำนองเดียวกันคุณภาพของวิดีโอ Deepfake นั้นเป็นเช่นนั้นการประชุมทั้งหมดสามารถถูกแย่งชิงด้วยวิดีโอปลอมและเสียง AI-Assisted และเสียง “ ผลที่ตามมาคือการเข้าถึงอย่างกว้างขวางเนื่องจากนักแสดงที่เป็นอันตรายสามารถใช้ประโยชน์จากวิดีโอได้นอกเหนือจากการฉ้อโกงทางการเงินเพื่อดำเนินการจารกรรมขององค์กรและรัฐบาล” จากข่าวล่าสุดเกี่ยวกับแนวทางปฏิบัติด้านความปลอดภัยของข้อมูล LAX ของเจ้าหน้าที่ระดับสูงของสหรัฐฯนี่เป็นปัญหาสำคัญ
ธรรมชาติของชีวิตสาธารณะในฐานะผู้บริหาร C-Suite-ออนไลน์ทางโทรทัศน์ในกิจกรรมสาธารณะ-ทำให้ง่ายต่อการเป็นผู้กระทำความผิดในการขุดวัสดุ “ ผู้โจมตีปรับแต่งวิธีการของพวกเขาผ่านการใช้ประโยชน์จากชื่อเสียงศึกษาการแสดงตนออนไลน์และรูปแบบการสื่อสารของผู้บริหารเพื่อสร้างการเลียนแบบการเลียนแบบที่น่าเชื่อถือ” ผู้พิทักษ์ความเป็นจริงกล่าว “ การสื่อสารที่ประดิษฐ์ขึ้นอาจส่งผลกระทบต่อชื่อเสียงของแบรนด์อย่างจริงจังและกระตุ้นความผันผวนของราคาหุ้นอย่างรวดเร็ว” ปัญหานั้นแย่ลงเมื่อเกิดการตรวจสอบข้ามช่องทางซึ่งเชื่อมต่อโพสต์ที่เป็นการฉ้อโกงที่ปรากฏขึ้นพร้อมกันบนแพลตฟอร์มที่แตกต่างกัน
Deepfake Lifesavers รวมถึงโปรโตคอลการรับรองความถูกต้องที่กำหนดไว้ล่วงหน้าการศึกษา
มีการป้องกันที่จำเป็นในการรักษาเลวีอาธาน Deepfake ไว้ที่อ่าว โปรโตคอลการตรวจสอบรองที่ต้องมีการยืนยันรองผ่านช่องทางการสื่อสารที่แตกต่างกันสามารถช่วยรักษาธุรกรรมที่มีมูลค่าสูงผลิตภัณฑ์สามารถจับการโจมตีได้เร็ว แต่ผู้พิทักษ์ความจริงกล่าวว่า“ การให้ความรู้แก่พนักงานเกี่ยวกับภัยคุกคามที่ลึกล้ำในขณะนี้มีความสำคัญอย่างยิ่งต่อการรับรู้ฟิชชิ่ง”
โปรโตคอลการตรวจสอบความถูกต้องที่กำหนดไว้ล่วงหน้าสามารถป้องกันไม่ให้ Deepfakes ออกจากการประชุมที่ละเอียดอ่อน หากผู้ต้องสงสัยได้รับการเข้าร่วมพนักงานควรมี“ ช่องทางโดยตรงในการตรวจสอบตัวตนโดยไม่ลังเล”
การตรวจสอบสตรีมแบบเรียลไทม์ด้วยสามารถตรวจจับการจัดการในฟีดวิดีโอ ในทำนองเดียวกันการตรวจสอบรอยเท้าดิจิตอลของผู้บริหารสามารถตรวจจับความพยายามในการแอบอ้างก่อนที่จะสร้างความเสียหาย
ในที่สุด“ การมี playbook วิกฤตในสถานที่สามารถลดความเสียหายชื่อเสียงหากมีการโจมตีล่าวาฬ”
เบ็นโคลแมนซีอีโอผู้พิทักษ์ความเป็นจริงจะอยู่ในลาสเวกัสในสัปดาห์หน้าเพื่อนำเสนอในการประชุม Transact การพูดคุยของเขา“ไว้วางใจในยุคของ AI: ป้องกันภัยคุกคามที่เพิ่มขึ้นของ Deepfake,” เกิดขึ้นในวันพฤหัสบดีที่ 3 เมษายน 2568 เวลา 10:15 น.
รัฐบาลฟิลิปปินส์ดูเหมือนจะเปิดตัวแอพต่อต้าน deepfake
กับสหราชอาณาจักรประกาศว่า Deepfakes เป็น“ ความท้าทายที่ยิ่งใหญ่ที่สุดในยุคออนไลน์” รัฐบาลทั่วโลกกำลังรวบรวม- การปล่อยตัวจากสำนักข่าวฟิลิปปินส์กล่าวว่าหน่วยงานของรัฐสองแห่งสำนักงานการสื่อสารของประธานาธิบดี (PCO) และศูนย์ประสานงานการสืบสวนอาชญากรรมไซเบอร์ (CICC) ได้ลงนามในบันทึกข้อตกลง (MOA) ในการร่วมมือกันเพื่อต่อสู้กับข่าวปลอมและการหลอกลวงที่รุนแรง
มีการแนะนำคุณสมบัติการหลอกลวงและการรายงานดิจิตอลใหม่พร้อมกับแคมเปญต่อต้านการสแกนและการศึกษา Deepfake Alexander Ramos ผู้อำนวยการบริหารของ CICC กล่าวว่าจะมีการสร้างกองเรือรบระดับชาติและแอพ AI ที่เปิดตัวเพื่อ“ ทวีความรุนแรงมากขึ้นในการรณรงค์ของรัฐบาลต่อข้อมูลที่ผิดและการบิดเบือนโดยเฉพาะอย่างยิ่งท่ามกลางท่ามกลาง-
PHP2 ล้าน (ประมาณ 35,000 ดอลลาร์สหรัฐ) จะได้รับการจัดสรรสำหรับซอฟต์แวร์“ 'regionalized' ที่จะซื้อจากนักพัฒนาต่างชาติ '
รัฐบาลบอกว่าได้ทดสอบแอพ Deepfake เวอร์ชันที่สามารถตรวจจับเนื้อหา Deepfake ได้ใน 30 วินาที
Deepfakes แพร่หลายในฟิลิปปินส์ อันรายงานจากการวิจัยของ Philstar Global CITES จาก SuMSUB แสดงให้เห็นว่าประเทศประสบกับการกระโดดครั้งใหญ่ที่สุดใน Deepfakes ในหมู่ประเทศในเอเชียแปซิฟิกทั้งหมดในปี 2566 Deepfakes ในภูมิภาคเพิ่มขึ้นโดยเฉลี่ย 1,530 เปอร์เซ็นต์ในปี 2566 เมื่อเทียบกับปีที่แล้ว มีกรณีของ Deepfakes ทางการเมืองที่แสดงให้ประธานาธิบดีออกคำสั่งทางทหารปลอม
ชิ้นส่วนระบุว่า“ ถึงเวลาแล้วที่สภาคองเกรสให้ความสำคัญกับ Deepfakes มากขึ้นและประธานาธิบดีรับรองการเรียกเก็บเงินต่อต้าน deepfake เป็นมาตรการเร่งด่วนก่อนที่ชีวิตและชื่อเสียงจะถูกทำลายมากขึ้น”
คณะอนุกรรมการอินเดียต้องการเวลามากขึ้นสำหรับการประเมิน Deepfake
ในอินเดียคณะอนุกรรมการของกระทรวงอิเล็กทรอนิกส์และเทคโนโลยีสารสนเทศ (MEITY) คือ“ การตรวจสอบปัญหาของ Deepfakes”บทความใน Indian Express - และต้องการอีกสามเดือนในการให้คำปรึกษาและส่งรายงาน
ศาลสูงเดลีสั่งให้ Meity“ พิจารณาข้อเสนอแนะโดยผู้เชี่ยวชาญด้านความคิดสร้างสรรค์และศิลปินรวมถึงหน่วยงานกำกับดูแลตนเองของมาตรฐานการโฆษณาอุตสาหกรรมโฆษณาสภาแห่งอินเดีย (ASCI) ในขณะที่พิจารณากฎและกฎระเบียบที่เกี่ยวข้องกับ Deepfakes”
เครื่องมือตรวจจับ Deepfake ใหม่จาก Trust Stamp, Loti AI
บริษัท ชีวภาพสองแห่งกำลังดำเนินการตามผลิตภัณฑ์ป้องกันการโจมตีแบบ Deepfake และการฉีดยาโจมตีใหม่ได้ประกาศว่าสำนักงานสิทธิบัตรและเครื่องหมายการค้าของสหรัฐอเมริกาอนุญาตให้ใช้กับกลไก "การซ้อนทับรูปร่างเพื่อการพิสูจน์ Liveny" สิทธิบัตรซึ่งการเปิดตัวกล่าวว่าช่วยเพิ่มความปลอดภัยของการตรวจสอบบุคคลระยะไกลโดยปกป้องมันจาก Deepfake และ-
วิธีการนี้“ ต้องการให้ผู้ใช้โต้ตอบกับการซ้อนทับรูปร่างที่สร้างขึ้นแบบสุ่มบนหน้าจออุปกรณ์ของพวกเขาเพื่อให้มั่นใจว่าการตรวจสอบแบบเรียลไทม์ของเรื่องสด” ดร. นอร์แมนโพห์หัวหน้าเจ้าหน้าที่วิทยาศาสตร์ของ Trust Stamp กล่าวว่าเครื่องมือ“ นำเสนอกลไกการตอบสนองต่อความท้าทายที่ปรับเปลี่ยนได้สูงซึ่งสามารถนำไปใช้กับสมาร์ทโฟนใด ๆ โดยไม่คำนึงถึงการผลิตหรืองบประมาณ”
loti aiมีการเข้าถึงเทคโนโลยีการป้องกันอุปมาอุปมัยที่กว้างขึ้นซึ่งจนถึงขณะนี้มีให้เฉพาะใน“ บุคคลสาธารณะและคนดังในรายการ” การเปิดตัวกล่าวว่าเทคโนโลยีนี้มีให้บริการอย่างอิสระสำหรับทุกคนที่ต้องการปกป้องชื่อเสียงดิจิทัลของพวกเขา
แพลตฟอร์มการป้องกันข้อมูลดิจิตอลและแพลตฟอร์มการจับกุมเนื้อหาอัตโนมัติของ Loti สแกนอินเทอร์เน็ตสาธารณะทุกวันสำหรับ Deepfakes การเลียนแบบเนื้อหาสำหรับผู้ใหญ่และเนื้อหาที่ไม่ได้รับอนุญาตที่ทำให้เข้าใจผิด ภาพที่ไม่ได้รับอนุญาตสามารถถูกตั้งค่าสถานะโดยอัตโนมัติและ บริษัท กล่าวว่าเครื่องมือของ บริษัท ส่งผลให้อัตราความสำเร็จในการจับกุม 95 เปอร์เซ็นต์ภายใน 17 ชั่วโมง
“ อินเทอร์เน็ตออกไปจากมือและผู้คนมีความเสี่ยงอย่างที่ไม่เคยมีมาก่อน” ลุคอาร์ริโกนีซีอีโอของ Loti AI กล่าว“ จาก Deepfakes ไปจนถึงเนื้อหาที่ผิดกฎหมายที่ไม่ได้รับอนุญาตภัยคุกคามเหล่านี้ไม่ได้ จำกัด อยู่ที่คนดังอีกต่อไป “ เป้าหมายของเรานั้นง่าย: เพื่อช่วยให้คุณเข้าถึงศูนย์ - ภาพศูนย์ของคุณออนไลน์ที่คุณยังไม่ได้รับการอนุมัติ”
หัวข้อบทความ
--------