สำหรับผู้ที่อยู่ในสนามเพลาะไบโอเมตริกซ์เฟลค์อาจดูเหมือนเป็นภัยคุกคามที่ไม่เคยมีมาก่อนหรืออย่างน้อยก็เป็น Boogeyman ที่มีประสิทธิภาพและหลีกเลี่ยงไม่ได้ แต่การวิจัยใหม่จากซานเดอร์กล่าวว่ามากกว่าครึ่งหนึ่งของคนทั่วไปในสหราชอาณาจักรไม่เคยได้ยินคำนี้ไม่เข้าใจว่าคำนี้หมายถึงอะไรหรือรายงานว่าสับสน เพียง 17 เปอร์เซ็นต์บอกว่าพวกเขาสามารถระบุวิดีโอ Deepfake ได้
เพื่อพยายามสร้างความตระหนักให้ Santander ได้ร่วมมือกับผู้มีอิทธิพลนายอารามในการสร้างวิดีโอปลอมที่มีที่ปรึกษาทางการเงินพร้อมกับ Chris Ainsley นำการฉ้อโกงของ Santander โดยมีเป้าหมายเพื่อแสดงให้เห็นว่า Deepfakes ดีแค่ไหน
“ Generative AI กำลังพัฒนาด้วยความเร็ว Breakneck และเรารู้ว่ามันคือ 'เมื่อ' แทนที่จะเป็น 'ถ้า' เราเริ่มเห็นการหลอกลวงที่เกิดขึ้นกับ Deepfakes ที่ซุ่มซ่อนอยู่ข้างหลังพวกเขา” Ainsley กล่าว “ เรารู้อยู่แล้วว่าผู้ฉ้อโกงสื่อสังคมออนไลน์ด้วยโอกาสการลงทุนปลอมและปลอมรักความสนใจและน่าเสียดายที่มีความเป็นไปได้สูงที่ Deepfakes จะเริ่มใช้เพื่อสร้างการหลอกลวงที่น่าเชื่อถือมากขึ้น หากมีอะไร - หรือใครบางคน - ดูเหมือนดีเกินกว่าที่จะเป็นจริงมันอาจจะเป็นเช่นนั้น”
ในขณะที่ชาวบริตหลายคนมีหัวของพวกเขาในทราย (อาจเป็นของปลอม) มีมากมายที่กังวล มากกว่าหนึ่งในสามของหนึ่งในสามบอกว่าพวกเขาได้ดู deepfake อย่างรู้เท่าทันส่วนใหญ่ของพวกเขาในโซเชียลมีเดีย ความกังวลที่ยิ่งใหญ่ที่สุดคือจะใช้ deepfakes ในการหลอกลวงทางการเงิน- ความกังวลอื่น ๆ คือ deepfakes ที่ใช้เพื่อไร้เดียงสามีอิทธิพลต่อการเลือกตั้งและใช้เพื่อจำลองข้อมูลไบโอเมตริกซ์ หกใน 10 คน (59 เปอร์เซ็นต์) กล่าวว่าการคุกคามของ Deepfakes ทำให้พวกเขาสงสัยในสิ่งที่พวกเขาเห็นหรือได้ยินมากขึ้น
บางครั้ง Mr. Moneyjar กล่าว-Tim Merriman-Johnson ที่ปรึกษาทางการเงินหรือที่ปรึกษาทางการเงิน-สามัญสำนึกคือการป้องกันที่ดีที่สุด
“ ผู้คนไม่ได้มีแนวโน้มที่จะถ่ายทอดโอกาสการลงทุนที่ร่ำรวยบนอินเทอร์เน็ต” เขากล่าว “ หากคุณมีข้อสงสัยว่า บริษัท หรือบุคคลนั้นถูกต้องตามกฎหมายคุณสามารถค้นหาพวกเขาได้เสมอการลงทะเบียนผู้มีอำนาจทางการเงิน-
เคล็ดลับของ Santander สำหรับพบ deepfakesเพิ่มขึ้นเป็นสองเท่าในจุดนั้นโดยเฉพาะอย่างยิ่งสิ่งประดิษฐ์ภาพที่ยังคงปรากฏใน Deepfakes ได้รับการกลั่นออกจากกระบวนการทำให้การตรวจจับภาพด้วยตาเปล่าเป็นไปไม่ได้อย่างมีประสิทธิภาพ รู้สัญญาณบอกเล่าของการหลอกลวงและประเภทใดที่ใช้กันทั่วไปสำหรับการฉ้อโกงเช่นการหลอกลวงการลงทุนการฉ้อโกงการแอบอ้างและการหลอกลวงโรแมนติก
“ เมื่อถึงจุดหนึ่ง Deepfakes จะเป็นไปไม่ได้ที่จะแยกแยะความแตกต่างจากวิดีโอจริงดังนั้นบริบทจึงสำคัญถามตัวเองว่าคำถามสามัญสำนึกแบบเดียวกันกับที่คุณทำตอนนี้ดีเกินไปที่จะเป็นจริงถ้านี่เป็นเรื่องจริงทำไมทุกคนไม่ทำเช่นนี้
Beyond Identity เสนอความเป็นจริงสำหรับ Deepfakes ในการซูม
เกินตัวตนได้เปิดตัว RealityCheck ซึ่งเป็นปลั๊กอินการประกันตัวสำหรับการซูม ตามข่าวประชาสัมพันธ์ RealityCheck (ชื่อที่ฉลาดที่สดชื่นในทะเลของผลิตภัณฑ์ที่มีเสียงคล้ายกัน) ปกป้ององค์กรจากการฉ้อโกง AI-ASSISTIST เช่นการโจมตีการแอบอ้างและ DeepFakes โดยการรับรองความถูกต้องของผู้เข้าร่วมการซูม
Jasson Casey ซีอีโอของ Beyond Identity กล่าวว่าการเพิ่มขึ้นอย่างรวดเร็วของ Deepfakes ทำให้ธุรกิจเร่งด่วนมากขึ้นเพื่อให้ตัวเองมีการป้องกันการฉ้อโกง ซึ่งทำให้นึกถึงกรณี deepfake ล่าสุดสิ่งนี้นำไปสู่“ ผลการทำลายล้าง” สำหรับฝ่ายที่ได้รับผลกระทบเขากล่าวว่า RealityCheck“ มุ่งเน้นไปที่การป้องกันการโจมตีการแอบอ้าง AI และ Deepfakes ในแอพพลิเคชั่นการประชุมทางวิดีโอ” เรียกมันว่า“ เครื่องมือแรกที่พัฒนาขึ้นเพื่อจัดการกับการโจมตีแบบใหม่นี้”
“ หลายองค์กรไม่มีกลยุทธ์การรักษาความปลอดภัยทางไซเบอร์ในการต่อสู้กับการโจมตีการหลอกลวง AI” เขากล่าว “ พวกเขาถูกท้าทายมากขึ้นโดยความจริงที่ว่าเครื่องมือตรวจจับที่ลึกล้ำที่สุดและการฝึกอบรมผู้ใช้ปลายทางนั้นมีความน่าจะเป็นและไม่สามารถรับประกันได้อย่างมั่นคง” เขากล่าวว่า“ เปลี่ยนโฟกัสไปสู่การรับรองการรับรองความถูกต้องเพื่อเรียกร้องการเรียกร้องที่กำหนด”
เมื่อเปิดใช้งานแล้วเครื่องมือจะใช้ตราสัญลักษณ์ของการตรวจสอบความถูกต้องแบบไดนามิกกับเลเยอร์กล้องของผู้ใช้ในการโทรซูมและแสดงแผงด้านข้างพร้อมข้อมูลเพิ่มเติมเกี่ยวกับอุปกรณ์และความเสี่ยงของผู้ใช้ นอกจากนี้ยังช่วยให้มั่นใจว่าอุปกรณ์นั้นมีคุณสมบัติตรงตามมาตรฐานความปลอดภัยขององค์กรและตรวจสอบอย่างต่อเนื่องและตรวจสอบความถูกต้องทั้งผู้ใช้และอุปกรณ์
ความเป็นจริงสำหรับการซูมถูกฝังอยู่ในแพลตฟอร์มการเข้าถึงที่ปลอดภัยของ Beyond Identity นอกเหนือจากการป้องกันการฉ้อโกงแล้วยังสามารถใช้ได้การตรวจสอบรหัสใน onboarding“ โดยการตรวจสอบว่าพนักงานอยู่ในอุปกรณ์ที่ได้รับอนุญาตและรับรองความถูกต้องอย่างมากกับ MFA ที่ดื้อต่อฟิชชิ่งเมื่อตรวจสอบเอกสารประจำตัวที่ผ่านการซูม”
Veridas รักษาตำแหน่งที่มั่นคงในตลาดสหรัฐอเมริกาเปิดตัว Voice Shield
ผู้ให้บริการชีวภาพสเปนเห็นได้ประกาศว่าการเปิดตัวเรียกว่า“ ความก้าวหน้าที่สำคัญในการขยายตัวในตลาดสหรัฐอเมริกา” เนื่องจากผลิตภัณฑ์การตรวจสอบเสียงได้รับการรับส่งในศูนย์บริการและเปิดตัวเครื่องมือป้องกันการฉ้อโกงด้วยเสียงล่าสุดกิจการที่ปรับขนาด-
Voice Shield กล่าวว่ามีความสามารถในการวิเคราะห์ข้อมูลเสียงเป็นมิลลิวินาทีเพื่อให้แบบเรียลไทม์การตรวจสอบเสียงผ่านการใช้เทมเพลตที่ปลอดภัยและไม่สามารถเปลี่ยนแปลงได้ซึ่งไม่ได้เก็บข้อมูลไบโอเมตริกซ์ มันทำงานได้อย่างมีประสิทธิภาพโดยไม่คำนึงถึงภาษาหรือสคริปต์ซึ่งทำให้ดีที่สุดสำหรับตลาดต่างประเทศ มันไม่จำเป็นต้องมีการลงทะเบียนล่วงหน้าหรือการลงทะเบียนให้การป้องกันที่มองไม่เห็นว่า“ ไม่ส่งผลกระทบต่อช่องทางแปลง”
Kevin Vreeland ผู้จัดการทั่วไปของอเมริกาเหนือที่ Veridas ตั้งข้อสังเกตว่า บริษัท ได้เห็น“ การเพิ่มขึ้นอย่างไม่น่าเชื่อในลูกค้าการตรวจสอบเสียงของเราเพิ่มขึ้นห้าเท่าในช่วงสามเดือนที่ผ่านมา”
ความร่วมมือของ บริษัท กับ Ventures ที่ปรับขนาดนั้นมีจำนวนเพิ่มขึ้นอีกจำนวนนั้นเพิ่มขึ้นเนื่องจาก Veridas มีจุดมุ่งหมายเพื่อเสริมตำแหน่งในตลาดสหรัฐ Vreeland เรียกพวกเขาว่า“ เหตุการณ์สำคัญที่สำคัญสำหรับ Veridas”
“ เสียงของเราBiometrics และ Deepfake Detectionซอฟต์แวร์กำลังเปลี่ยนกฎเพื่อความดีให้ความปลอดภัยและความสะดวกสบายที่ไม่มีใครเทียบได้” เขากล่าวโดยสังเกตว่า Veridas ได้รับการ“ สร้างและปรับแต่งโซลูชั่นเหล่านี้เป็นเวลาหลายปีในฐานะที่เป็นส่วนสำคัญของการเสนอหลักของเรา” เขากล่าวว่าการเปิดตัวโล่เสียงการใช้ AI และ Deepfakes ในทางที่ผิด-
กระดาษ Corsound AI นั้นลึกลงไปในการตรวจจับเสียง Deepfake
Tel Aviv StartupCorsound AIซึ่งให้บริการลูกค้าในการบังคับใช้กฎหมายธนาคารและการเงินได้เปิดตัวใหม่กระดาษสีขาวชื่อ“ วิธีป้องกันการฉ้อโกงตัวตนด้วยการป้องกันเสียงลึกที่สมบูรณ์” มีแนวโน้มว่า“ ข้อมูลเชิงลึกสำหรับสถาบันการเงินธนาคารโทรคมนาคมและการบังคับใช้กฎหมาย (ในหมู่คนอื่น ๆ ) สำหรับการปกป้องข้อมูลสินทรัพย์ทางการเงินและบุคคล” กระดาษเน้นขนาดของภัยคุกคามที่เกิดขึ้นใหม่
“ ความเสี่ยงที่สำคัญที่เกิดจากการฉ้อโกงด้วยเสียง Deepfake ไม่สามารถเข้าใจได้” มันกล่าว “ ในสหรัฐอเมริกาเพียงอย่างเดียวจำนวนกรณีเพิ่มขึ้น 3,000 เปอร์เซ็นต์ในปี 2566 ในช่วงปี 2565 และเมื่อพูดถึงการฉ้อโกงด้วยเสียง Deepfake 37 เปอร์เซ็นต์ขององค์กรทั่วโลกได้รับผลกระทบแล้ว”
การโคลนนิ่งเสียงเป็นที่ชื่นชอบของการฉ้อโกงกระดาษกล่าวว่าเนื่องจากมีค่าใช้จ่ายค่อนข้างต่ำประสิทธิภาพของมันในการแก้ปัญหาที่ต่ำกว่าและวุฒิภาวะของเทคโนโลยี - ทั้งหมดนี้ทำให้การตรวจจับยาก
บทความนี้สรุปกลยุทธ์การป้องกันที่สามารถช่วยให้หน่วยงานที่มีความเสี่ยงติดอาวุธจาก Deepfakes สิ่งเหล่านี้รวมถึงการจับคู่ด้วยเสียงและการจับคู่ด้วยเสียงซึ่งเป็นอัลกอริทึมที่สัญญาว่าจะสามารถจับคู่เสียงกับใบหน้าเฉพาะตามเทคโนโลยีที่พัฒนาโดยนักวิจัยที่วิทยาศาสตร์คอมพิวเตอร์ของ MIT และห้องปฏิบัติการปัญญาประดิษฐ์ (CSAIL- Corsound AI บันทึกกระดาษปัจจุบัน“ ถือเป็นข้อเสนอเดียวที่จะให้ความสามารถที่สำคัญของการจับคู่ด้วยเสียงกับการจับคู่เพื่อพิจารณาว่าเสียงใดที่เป็นไปได้มากที่สุด”
ก่อตั้งขึ้นในปี 2564 Corsound เป็น บริษัท ในเครือของ Cortica บริษัท แม่ของผู้พัฒนาการรับรู้และการวิเคราะห์ใบหน้าCorsight AI-
การเริ่มต้นคือดร. แมนฮัตตันแห่งชีวภาพการมองเห็นและการรู้ทั้งหมด
หากวิดีโอที่เหมือนจริงมากเกินไปทำให้เราอยู่ในมุมหนึ่งการเริ่มต้นจากอิสราเอลการเปิดเผยมีทางออกที่เป็นไปได้ อันชิ้นส่วนในคำพูดของ Nocamels เปิดเผย CPO Amit Cohen ผู้ซึ่งกล่าวว่า บริษัท “ วิเคราะห์พฤติกรรมของมนุษย์เพื่อช่วยให้คนอื่นตัดสินใจได้ดีที่สุดเกี่ยวกับมนุษย์”
เทคโนโลยีที่เป็นกรรมสิทธิ์ของมันอ้างว่าตรวจสอบพฤติกรรมที่ไม่รู้สึกตัวและไร้สติซึ่ง“ ยากที่จะควบคุมเมื่อมีปฏิสัมพันธ์กับคนอื่น ๆ ” เช่นการเคลื่อนไหวบนใบหน้าสนามเสียงและเสียงอัตราการเต้นของหัวใจ- microbiometrics ถ้าคุณต้องการนั่นเป็นตัวบ่งชี้ของ "ความเครียดทางปัญญาและอารมณ์" ตามเว็บไซต์ของ บริษัท มัน“ ดำเนินการกับสตรีมวิดีโอที่ไม่ล่วงล้ำและได้รับการออกแบบมาเพื่อให้สอดคล้องกับแอพพลิเคชั่นที่หลากหลายซึ่งต้องการการตรวจสอบความถูกต้องของมนุษย์ความสมบูรณ์ของข้อมูลและความแม่นยำที่ยอดเยี่ยม”
“ เครือข่ายประสาทการเรียนรู้เชิงลึกขั้นสูงของเราประเมินปัจจัยมนุษย์โดยการมีส่วนร่วมกับระบบประสาทของมนุษย์เกี่ยวกับสภาพแวดล้อมทำให้เราสามารถประเมินสภาพจิตใจและตรวจสอบข้อมูลได้อย่างแม่นยำ” บริษัท กล่าว
สนามคือความมั่นคงแห่งมาตุภูมิและภาคการดูแลสุขภาพจิต
“ มีความคล้ายคลึงกันมากมายระหว่างความมั่นคงแห่งมาตุภูมิและการดูแลจิต” โคเฮนกล่าว “ คุณต้องการจับคนเลวและคุณต้องการช่วยเหลือคนดีที่ต้องการความช่วยเหลือและในสองโลกนี้คุณต้องมีความแม่นยำมาก - ไม่มีที่ว่างสำหรับความผิดพลาด”
ในแง่หนึ่งการเปิดเผยเป็นฟอยล์ที่สมบูรณ์แบบสำหรับกองทัพของผู้กระทำความผิดที่มองไม่เห็นอย่างเงียบ ๆ ฉีดเนื้อหา Deepfake ลงในวิดีโอและการโต้ตอบทางเสียงของเรา - ไม่ใช่เพราะมันเป็นสิ่งที่มันพูด แต่เพราะมันเกิดขึ้นในองค์กรแอบแฝงจากภาพยนตร์เจมส์บอนด์ ครึ่งหนึ่งของทีม บริษัท ได้รับการฝึกฝนนักจิตวิทยา อีกครึ่งหนึ่งที่จะพูดคือกองกำลังป้องกันประเทศอิสราเอลที่เกษียณอายุราชการ“ ที่ปรึกษาสำหรับแอปพลิเคชันความปลอดภัยของแพลตฟอร์ม”
โคเฮนสัญญาว่าการเปิดเผยนั้นขึ้นอยู่กับ“ AI ที่รับผิดชอบ” และอ้างสิทธิ์อย่างกล้าหาญเพื่อความถูกต้องของแพลตฟอร์ม “ บรรทัดล่างคือระบบประสาทกระซิกไม่สามารถโกหกได้ไม่สามารถหลอกลวงได้” เขากล่าว “ นี่คือสิ่งที่มีอยู่ในตัวเราทุกคน”
หัวข้อบทความ
เกินตัวตน-เสียงร้อง-การตรวจจับ deepfake-เฟลค์-การป้องกันการฉ้อโกง-AI Generative-การเปิดเผย-เห็น