ภัยคุกคามดิจิทัลเป็นภัยคุกคามระดับโลก ในขณะที่ Deepfakes สร้างขึ้นด้วยอัลกอริทึม AI กำเนิดน้ำท่วมพื้นที่ออนไลน์รัฐบาลและ บริษัท เอกชนทั่วโลกกำลังเพิ่มการป้องกัน
ในอินเดียสถาบันวิทยาศาสตร์ (IISC) เบงกาลูรูและ บริษัท Fintech Infibeam Avenues Ltd. ได้ประกาศความร่วมมือเชิงกลยุทธ์เพื่อพัฒนาตามเวลาจริงระบบ ข่าวเริ่มต้นของอินเดีย (ISN)บอกว่าหน่วย AI ของ Infibeam, phronetic.ai และวิสัยทัศน์ของ IISC และ AI Lab (VAL) จะร่วมมือกันในเทคโนโลยีต่อต้าน deepfake ที่เหมาะสำหรับการสื่อสารวิดีโอแบบเรียลไทม์-“ ตัวแทนวิดีโอ AI ขั้นสูงที่ตรวจสอบการโทรวิดีโอต่อเนื่อง
phronetic.ai ได้ยื่นสิทธิบัตรสำหรับอัลกอริทึมแล้วซึ่ง IISC จะช่วยในการปรับแต่งผ่านการวิจัยและการอัปเดต Vishal Mehta ประธานและกรรมการผู้จัดการของ Infibeam Avenues Ltd. กล่าวว่าการเป็นหุ้นส่วนเป็น“ ขั้นตอนสำคัญในการเสริมสร้างความปลอดภัยทางไซเบอร์และป้องกันการใช้ในทางที่ผิดสำหรับกิจกรรมที่ฉ้อโกง”
วัตถุประสงค์คือการส่งมอบแพลตฟอร์มการตรวจจับ Deepfake ที่ประหยัดต้นทุนซึ่งเป็นมิตรกับผู้ใช้ซึ่งช่วยให้ผู้ที่ไม่ใช่ผู้เชี่ยวชาญสามารถตรวจสอบความถูกต้องของภาพและเสียงสดและสามารถทำงานได้ในระดับโดยไม่ลดความเร็วหรือความแม่นยำ กรณีการใช้งานที่อาจเกิดขึ้น ได้แก่ ธนาคารการดูแลสุขภาพการเงินทรัพยากรมนุษย์องค์กรรัฐบาลและการบังคับใช้กฎหมาย
"เช่นก้าวต่อไปอย่างต่อเนื่องอย่างไม่เคยปรากฏมาก่อนการเพิ่มขึ้นของ Deepfakes ก่อให้เกิดความท้าทายที่สำคัญ” ศาสตราจารย์ Venkatesh Babu ศาสตราจารย์และประธานภาควิชาวิทยาศาสตร์การคำนวณและข้อมูลวิทยาศาสตร์ (ซีดี) กล่าวที่ IISC กล่าว เฉพาะในการทำเช่นนั้นสามารถเชื่อถือได้ในการสื่อสารดิจิทัล
การเริ่มต้นการปกป้องระบบประสาทสำรวจการตรวจจับ AITIC AI Deepfake
ISN ยังรายงานในการปกป้องระบบประสาทการเริ่มต้นการรักษาความปลอดภัยทางไซเบอร์ที่ระดมทุนได้มากกว่า $ 600,000 สำหรับผลิตภัณฑ์ตรวจจับ Deepfake ในรอบการระดมทุนล่วงหน้าที่นำโดย บริษัท การลงทุนของ บริษัท การลงทุนใน Gurugram
Piyush Verma ซีอีโอของ Neural Prefter กล่าวว่าเป้าหมายของ บริษัท คือ“ เพื่อปกป้องอัตลักษณ์ที่แท้จริงจากการหลอกลวงดิจิทัลผ่านเทคโนโลยี AI Agent ที่เป็นนวัตกรรม” โมเดล AI ที่เป็นกรรมสิทธิ์ของการเริ่มต้นตรวจจับ Deepfakes ในรูปแบบข้อมูลหลายรูปแบบรวมถึงวิดีโอเสียงและสตรีมแบบเรียลไทม์ มันกำลังดำเนินโครงการนำร่องในนิวยอร์กและสิงคโปร์และมองหาการขยายการดำเนินงานกับองค์กรระดับโลก บริษัท ฟินเทคและสถาบันการเงิน
DARPA เป็นหุ้นส่วนกับสถาบันวิจัยความปลอดภัยดิจิทัล
หน่วยงานโครงการวิจัยขั้นสูง (DARPA) มีในเรดาร์ของมันเปิดตัวโครงการริเริ่มหลายอย่างเพื่อตรวจจับวิเคราะห์และลดผลกระทบของเทคโนโลยี Deepfake
ขณะนี้สำนักงานกระทรวงกลาโหมสหรัฐ (DOD) ได้ทำข้อตกลงการวิจัยและพัฒนาสหกรณ์กับสถาบันวิจัยความปลอดภัยดิจิทัล (DSRI) ของสถาบันวิจัย ULเพื่อ“ ดำเนินการวิจัยการตรวจจับการระบุแหล่งที่มาและลักษณะของสื่อ Ai-Generated ต่อไป”
อันบล็อกจากหน่วยงานบอกว่า“ เริ่มต้นด้วยโปรแกรมสื่อนิติวิทยาศาสตร์ในปี 2559 และดำเนินการต่อกับนิติวิทยาศาสตร์ความหมาย(SEMAFOR) โปรแกรมในปี 2020 DARPA ได้ผลิตเทคโนโลยีทางนิติวิทยาศาสตร์ที่ครอบคลุมเพื่อช่วยลดภัยคุกคามออนไลน์เหล่านี้” ตอนนี้หน่วยงานคือ“ การเปลี่ยนเทคโนโลยีที่เกิดขึ้นอย่างแข็งขันให้กับรัฐบาลสหรัฐฯและทำงานร่วมกับอุตสาหกรรมเพื่อทำการค้าเครื่องมือเหล่านี้”
ข้อตกลงใหม่จะเห็นว่า DSRI เข้าครอบครองการแข่งขันแบบเปิดอย่างต่อเนื่องของ Semafor, AI Forensics Open Research Challenge Evaluations (AI Force) ประกาศผลการท้าทายและมอบรางวัลการวิจัยรางวัลจากการประชุมวิชาการ
“ นวัตกรรมไม่ได้เกิดขึ้นในสุญญากาศดังนั้นจึงเป็นเรื่องสำคัญที่เราจะต้องสื่อสารเกี่ยวกับงานที่เราทำเพื่อมีส่วนร่วมกับอุตสาหกรรมสถาบันการศึกษาและพันธมิตรที่มีศักยภาพในการพัฒนาเทคโนโลยีสำหรับการใช้งานจริง” Wil Corvey ผู้จัดการโครงการ Semafor ของ DARPA กล่าว “ ภารกิจของการทดสอบและประเมินผลผลิตภัณฑ์ของ DSRI โดยเฉพาะอย่างยิ่งเกี่ยวกับสภาพแวดล้อมทางสังคมและเทคโนโลยีที่ซับซ้อนและพัฒนาซึ่งผลิตภัณฑ์จะถูกนำไปใช้ทำให้พวกเขาเหมาะอย่างยิ่งสำหรับการเปลี่ยนแปลงนี้”
เกาหลีใต้นักวิจัยชาวออสเตรเลียเรียก Foul ในการตรวจจับ Deepfake ในปัจจุบัน
นักวิจัยจากองค์กรวิจัยวิทยาศาสตร์และอุตสาหกรรมเครือจักรภพแห่งออสเตรเลีย (CSIRO) และมหาวิทยาลัย Sungkyunkwan(SKKU) ในเกาหลีใต้ได้วิเคราะห์เครื่องตรวจจับ Deepfake ชั้นนำ 51 เครื่องและทดสอบ 16 ครั้งกับ Deepfakes ต่าง ๆ - และพบว่าพวกเขาต้องการอย่างมาก
อายุข้อมูลบอกว่าทีม CSIRO ทดสอบเนื้อหาสามประเภท: การสังเคราะห์, การแลกเปลี่ยนใบหน้าและการยืนยันซ้ำ, เครื่องมือจาก deepfacelab, dfaker, faceswap, น้ำหนักเบา, fom-animation, fom-faceswap และ fsgan กับชุดทดสอบบุคคลที่สาม DFDC และ celeb-df
เครื่องตรวจจับ Deepfake ทั้งหมดระเบิดในการทดสอบที่ใช้กับเนื้อหา "โลกแห่งความจริง"
การแสดงที่ขาดความดแจ่มใสเป็นสาเหตุของความกังวลเนื่องจากก้าวที่เทคโนโลยี Deepfake กำลังพัฒนา วิดีโอ Deepfake Photorealistic, เสียงเลียนแบบและการโจมตีแบบฉีด: เทคโนโลยีได้นำไปสู่คดีฉ้อโกงที่มีชื่อเสียงเช่น 25 ล้านเหรียญสหรัฐเกี่ยวกับพนักงานของฮ่องกงของ บริษัท วิศวกรรมอังกฤษ Arup (Rob Greig หัวหน้าเจ้าหน้าที่สารสนเทศของ บริษัท ยืนยันว่า“ สิ่งนี้เกิดขึ้นบ่อยกว่าผู้คนจำนวนมากตระหนักถึง) ชิ้นส่วน IA ยังอ้างถึงการเรียกร้องจาก Micro Trend บริษัท รักษาความปลอดภัยในไม่ช้า
ทีมงานจาก CSIRO และ SKKU ให้คำแนะนำแก่ธุรกิจในการสำรวจเทคนิคต่าง ๆ เช่นการวิเคราะห์สิ่งประดิษฐ์สเปกตรัมเครือข่ายฝ่ายตรงข้าม (GANS) และ GANS) และ GANS) และ GANS)- เครื่องตรวจจับ Deepfake ที่ดีกว่าจะต้อง“ รวมชุดข้อมูลที่หลากหลายรวมถึงเสียงข้อความรูปภาพและข้อมูลเมตารวมถึงการใช้ข้อมูลสังเคราะห์และการวิเคราะห์ตามบริบท”
“ โดยการทำลายวิธีการตรวจจับข้อมูลส่วนประกอบพื้นฐานของพวกเขาและให้พวกเขาทำการทดสอบอย่างเข้มงวดกับ Deepfakes ในโลกแห่งความเป็นจริง” CSIRO Cybersecurity ผู้เชี่ยวชาญดร. Sharif Abuadbba กล่าว“ เราเปิดใช้งานการพัฒนาเครื่องมือที่ดีขึ้นเพื่อตอบโต้สถานการณ์ที่หลากหลาย”
หัวข้อบทความ
--------