ความกลัวเกี่ยวกับ deepfakes อาจมียอดแหลม ศูนย์การสื่อสารเชิงกลยุทธ์ของนาโต้ (Stratcom) ศูนย์ความเป็นเลิศ (COE) จัดให้มีการอภิปรายออนไลน์เกี่ยวกับภัยคุกคามที่เกิดขึ้นจากความสมจริงอย่างสูง
การพูดคุยซึ่งสามารถดูได้ที่นี่แสดงให้เห็นว่าโอกาสที่ผู้นำระดับโลกจะถูกนำมาใช้โดยวิดีโอที่แกล้งทำของพวกเขารับสินบนกินด้วยนิ้วหรือร่วมมือกับคู่แข่งทางการเมือง อย่างไรก็ตามอุตสาหกรรมชีวภาพอาจได้รับผลกระทบในที่สุด
ผู้เชี่ยวชาญคู่หนึ่งเกณฑ์สำหรับการประชุมทางวิดีโออ้างถึงเหตุผลหลายประการในการผ่อนคลายเกี่ยวกับ Deepfakes แต่เหตุผลที่เดือดลงไปสู่การโจมตีที่ลึกล้ำยังไม่เกิดขึ้นเทคโนโลยีการตรวจจับจะก้าวหรือแม้แต่เทคโนโลยีการหลอกลวงที่ดีกว่าและผู้คนจะไม่ถูกหลอก
JānisSārtsผู้อำนวยการของ Nato Stratcom Coe เปิดการพูดคุยที่อ้างอิงถึง“ เรื่องที่เกือบจะเป็นตำนานของ Deepfakes” และแนะนำว่าศักยภาพการทำลายล้างของพวกเขาจะไม่ตรงกับความเป็นจริงทางเทคโนโลยีหรือเศรษฐกิจ
“ เพียงเพราะเทคโนโลยีสามารถใช้ไม่ได้หมายความว่ามันจะถูกใช้” ทิมฮังผู้อำนวยการจริยธรรมของฮาร์วาร์ด-มิทและการกำกับดูแลของ IA Initiative กล่าว
Hwang กล่าวว่าไม่มีหลักฐานว่าทีมที่บิดเบือนข้อมูลกำลังใช้ Deepfakes ส่วนใหญ่เป็นเพราะมันมีราคาไม่แพงที่จะมีส่วนร่วมในแคมเปญดั้งเดิมและโซเชียลมีอิทธิพลต่อแคมเปญ
แม้ว่านักแสดงที่ไม่ดีใช้จ่าย“ หมื่นดอลลาร์” ที่จำเป็นในการสร้างแคมเปญ Deepfake Hwang กล่าวว่านักวิจัยมีตัวอย่างมากมายที่พวกเขาสามารถใช้กับการเรียนรู้ของเครื่องเพื่อดูการฉ้อโกงวิดีโอ
นอกจากนี้เขายังชี้ให้เห็นถึงความเป็นไปได้ของข้อมูลการฝึกอบรม“ พิษ” - เนื้อหาภาพและเสียง - ด้วย“ เครื่องหมายกัมมันตภาพรังสี” ที่เป็นรูปเป็นร่าง เพียงแค่การคุกคามของการเป็นพิษอาจไม่น่าสนใจพอที่จะทำให้การโจมตีไม่น่าเป็นไปได้เขาอธิบายเพราะสื่อสังคมออนไลน์ที่สำคัญจะแสวงหาเครื่องหมายและฟีดที่สะอาดอย่างจริงจัง
การเข้าร่วม Hwang และSārtsเป็น Keir Giles ผู้เชี่ยวชาญด้านรัสเซียที่ศูนย์วิจัยการศึกษาความขัดแย้งซึ่งกล่าวว่าข้อโต้แย้งเกี่ยวกับวิดีโอวิดีโอที่ฉ้อโกงของผู้นำสามารถพูดเกินจริงได้
ไจล์สกล่าวว่าผู้คนไม่สามารถตกใจได้อย่างง่ายดายเพราะผู้มีอิทธิพลของสื่อที่หลอกลวงใช้เวลานาน ผู้เชี่ยวชาญได้กังวลเกี่ยวกับ“ การพังทลายของความไว้วางใจในความจริงหรือความเป็นจริงตามวัตถุประสงค์” เขากล่าวตั้งแต่“ ภาพบุคคลที่ประจบประแจงครั้งแรก” ถูกทาสี
อย่างไรก็ตามมีอันตรายอื่น ๆ ที่เกี่ยวข้องกับ deepfakes ที่ไจล์สกล่าวว่าควรได้รับการพิจารณา
สำหรับหนึ่งพวกเขาสามารถทำให้ใบหน้าและการจดจำเสียงไบโอเมตริกซ์ในทางทฤษฎีว่าไม่เกี่ยวข้องกับลายเซ็นที่เขียนด้วยมือเขากล่าวการสื่อสารที่แตกต่างกันนิดหน่อยVP และ GM ของความปลอดภัยและชีวภาพ Brett Beranek ยังมีส่วนร่วมในการอภิปราย
และความสามารถในการปรับขนาดของเทคโนโลยีนี้มีการเฝ้าดูตาม Giles มันจะมี“ ใกล้เคียงกับค่าใช้จ่ายเป็นศูนย์” เพื่อสร้างเนื้อหาที่ทำให้เข้าใจผิดที่เกี่ยวข้องกับอวตารของมนุษย์ที่น่าเชื่อถือและแจกจ่ายทั่วโลก
มันเป็นอวตารที่ดูเหมือนจะกังวลไจล์สมากที่สุด
ผู้คนที่เบื่อหน่ายกับการเมืองและเทคโนโลยีจะมีโอกาสน้อยที่จะใช้ความเชื่อในเนื้อหาที่สาปแช่งของบุคคลที่รู้จัก แต่อวตารหรืออวตารสามารถทำหรือพูดอะไรและมีอิทธิพลต่อความคิดและพฤติกรรมของผู้คนที่บริโภคเนื้อหาหลอกลวงอื่น ๆ แล้ว
นักแสดงที่ไม่ดีสามารถสร้างผู้นำ Deepfake ที่ไม่ระบุชื่อกลุ่มหรือแม้แต่การเคลื่อนไหวเขากล่าว
โพสต์นี้ได้รับการอัปเดตเวลา 9:04 น. ในวันที่ 14 พฤษภาคม 2563 เพื่อชี้แจงว่าเหตุการณ์นี้จัดขึ้นโดย Nato Stratcom Coe ซึ่งไม่ได้เป็นส่วนหนึ่งของโครงสร้างการบังคับบัญชาทางทหารของนาโต้
หัวข้อบทความ
AI-ปัญญาประดิษฐ์-ไบโอเมตริกซ์-เฟลค์-การจดจำใบหน้า-นาโต้-การจดจำเสียง