กำลังก้าวหน้าไปอย่างรวดเร็ว กฎหมายและแนวปฏิบัติทางสังคมของเราไม่เป็นไปตามนั้น ผู้มีส่วนได้ส่วนเสียที่หลากหลาย ตั้งแต่หน่วยงานกำกับดูแลไปจนถึงศิลปิน นำเสนอข้อกังวลในวงกว้างมาสู่โต๊ะ ความตระหนักรู้ของสาธารณชนยังค่อนข้างต่ำ และจำเป็นต้องมีการศึกษาเพิ่มเติม คำศัพท์ที่ใช้เล่นไม่มีประสิทธิภาพและล้าสมัย ความอ่อนแอโดยรวมของเราในการรับรู้สื่อปลอมและใช้การคิดอย่างมีวิจารณญาณสามารถนำไปสู่ผลที่ตามมาที่เปลี่ยนแปลงชีวิตสำหรับผู้ที่ตกเป็นเหยื่อ ในขณะเดียวกัน ภัยคุกคามที่อาจเกิดขึ้นต่อผลการเลือกตั้งอาจดูเกินจริง แต่เนื่องจากเนื้อหาปลอมสามารถแพร่กระจายอย่างรวดเร็วผ่านเครือข่ายสังคมออนไลน์ จึงสามารถกัดกร่อนโครงสร้างความไว้วางใจทางสังคมโดยรวม และโยนความจริงไปสู่ความสับสนวุ่นวายของความไม่แน่นอน
เราทำอะไรได้บ้าง? เมื่อเร็วๆ นี้เวิร์คช็อป Deepfakeกลุ่มผู้เชี่ยวชาญซึ่งจัดโดย European Association for Biometrics (EAB) ชั่งน้ำหนักว่ากฎหมาย กฎระเบียบ การศึกษา และเทคโนโลยีสามารถนำมารวมกันได้อย่างไร เพื่อป้องกันภัยคุกคาม Deepfake ที่กำลังอุบัติใหม่ได้อย่างมีประสิทธิภาพ คำถามที่ครอบคลุมนั้นมีความสำคัญสูงสุด: เมื่อมาถึงคำถามนั้น ความเป็นจริงมีค่าสำหรับเราอย่างไร?
การสร้างและการตรวจจับแบบ Deepfake ใน 'การแข่งขันหนู' ตามวัฏจักร: Peter Eisert
สำหรับ Peter Eisert หัวหน้าฝ่าย Vision & Imaging Technologies และหัวหน้าแผนก Visual Computing ที่ Humboldt University การสร้างและการตรวจจับ Deepfakes ติดอยู่ในลักษณะวนซ้ำ การแพร่กระจายของเครื่องมือ Deepfake ที่เข้าถึงได้ง่ายได้นำไปสู่การปรับปรุงอย่างต่อเนื่อง Eisert ใช้รูปวงล้อหนูแฮมสเตอร์เพื่อเป็นสัญลักษณ์ของความพยายามอย่างต่อเนื่องในการพัฒนา AI ที่มีประสิทธิภาพในการตรวจจับสิ่งเหล่านี้เพิ่มมากขึ้น-
“เราได้เห็นการเพิ่มขึ้นอย่างมากในคุณภาพของ Deepfake” Eisert กล่าว ในการแข่งขันหนูระหว่าง AI ที่มีวัตถุประสงค์เพื่อการฉ้อโกงและ AI การป้องกัน กลยุทธ์การตรวจจับจะต้องพัฒนาควบคู่ไปกับรูปแบบการโจมตี
Eisert สรุปประเภทของการปลอมแปลงใบหน้าในปัจจุบันประเภทต่างๆวางหน้าใครบางคนบนร่างของคนอื่น การแสดงใบหน้าจำลองจะเปลี่ยนการแสดงออกทางสีหน้าหรือท่าทาง สามารถสร้างดีพเฟคสังเคราะห์โดยสมบูรณ์ได้ด้วย GAN หรือแบบจำลองการแพร่กระจาย วิธีการยังคงพัฒนาต่อไป: Eisert ชี้ไปที่ "Gaussian Splatting" ซึ่งเป็นเทคนิคใหม่ที่ให้ผลลัพธ์การปลอมแปลงใบหน้าที่มีความละเอียดสูง การทำซ้ำใหม่แต่ละครั้งจะจัดแสดงสิ่งประดิษฐ์ประเภทต่างๆ ที่ปรากฏในสถานที่และบริบทที่แตกต่างกัน
หากการตรวจจับ Deepfake เป็นไปตามยุคสมัย การตรวจจับนั้นจะต้องพัฒนาไปตามเวลา เครื่องตรวจจับ Deepfake ในปัจจุบันจำนวนมากเป็นแบบเฟรมต่อเฟรม แต่ Eisert กล่าวว่าพวกเขาควรพิจารณาผลกระทบชั่วคราวและ "ความไม่สอดคล้องกันเมื่อเวลาผ่านไป" ซึ่งเป็นข้อมูลเชิงความหมายและข้อมูลเชิงเวลาในเนื้อหา เช่น อัตราการเต้นของหัวใจ หรือการไหลเวียนของเลือดบนใบหน้า เป็นต้น เป็นตัวบ่งชี้ที่เป็นไปได้
กก็มีความสำคัญเช่นกัน หากชุดข้อมูลมีอาร์ติแฟกต์ที่มองเห็นได้ง่ายมากเกินไป โมเดล AI ก็จะข้ามไปที่อาร์ติแฟกต์เหล่านี้ได้อย่างง่ายดาย และจะสรุปได้ไม่ดีนัก “เราต้องการข้อมูล Deepfake คุณภาพสูงเพื่อฝึกเครื่องตรวจจับที่แข็งแกร่ง” Eisert กล่าว “ทำให้ผู้โจมตีรายใหม่ค้นพบช่องโหว่ในพื้นที่แฝงของคุณที่เครื่องตรวจจับของคุณไม่ได้ครอบคลุมได้ยากขึ้น”
กลยุทธ์การฝึกอบรม เช่น AltFreezing หรือ Real Forensics เสนอวิธีที่แตกต่างกันในการแก้ปัญหาวิธีฝึกอุปกรณ์ตรวจจับให้ใส่ใจกับคุณสมบัติชั่วคราว ยังมีความเป็นไปได้เพิ่มเติม: พารามิเตอร์การแสดงออกทางสีหน้าและการพิมพ์ลายนิ้วมืออวาตาร์ ซึ่งเป็นเทคโนโลยี ID ผู้ใช้ที่พัฒนาโดย NVIDIA ซึ่งใช้การเปลี่ยนแปลงของใบหน้าสำหรับ-
ประเด็นสำคัญจาก Eisert คือความสม่ำเสมอชั่วคราวยังคงไม่ได้รับการใช้ประโยชน์อย่างเต็มที่สำหรับการตรวจจับ และชุดข้อมูลคุณภาพสูงพร้อมข้อมูลที่หลากหลายเป็นสิ่งจำเป็นสำหรับการฝึกอบรม
'ไม่ใช่เรื่องง่ายสำหรับสายตามนุษย์ที่จะตรวจจับ Deepfakes': Ann-Kathrin Freiberg
Ann-Kathrin Freiberg จาก BioID ผู้ซึ่งเพิ่งรับประทานอาหารกลางวันเพื่อพูดคุยเกี่ยวกับ Deepfakes ของ EAB ได้นำมุมมองของอุตสาหกรรมมาสู่เวิร์กช็อป เธอเน้นย้ำประเด็นเดียวกันหลายประการจากการพูดคุยครั้งก่อน: Deepfakes ใช้สำหรับกิจกรรมทางอาญา เช่น ฟิชชิ่ง การหลอกลวงทางวิดีโอคอลของ CEO การหลอกลวงเรื่องความรัก และ – โดยส่วนใหญ่ –ซึ่งมีเนื้อหาที่เกี่ยวข้องกับ Deepfake มากกว่า 90 เปอร์เซ็นต์
เทคโนโลยี Deepfake ยังเป็นภัยคุกคามต่อประชาธิปไตยอีกด้วย แคมเปญข้อมูลที่บิดเบือนอย่างล้ำลึกซึ่งส่งผลให้เกิดการแทรกแซงการเลือกตั้งสามารถแพร่กระจายได้อย่างรวดเร็ว โดยมีเนื้อหาหมุนเวียนและรวบรวมยอดดูหลายพันครั้งภายในไม่กี่ชั่วโมง แม้ว่าวิดีโอจะถูกดัดแปลงก็ตาม Freiberg กล่าว "ผู้คนจำนวนมากได้เห็นมันแล้ว"
น่าเสียดายที่ผู้คนไม่มีความพร้อมในการตรวจจับโดยกำเนิด- ดวงตาของมนุษย์ยังคงทำงานได้ค่อนข้างแย่ และจะยากขึ้นเมื่อเทคโนโลยีในการสร้าง Deepfakes ดีขึ้นเท่านั้น นอกจากนี้ บางคนดูเหมือนจะไม่สนใจหากบุคคลสาธารณะบางคนไม่มีอยู่จริง Freiberg ชี้ไปที่ความรู้สึกในอินสตาแกรม Aitana Lopez นางแบบระดับแนวลึก (หรือ "วิญญาณเสมือน") ซึ่งมีผู้ติดตาม 329,000 คนและสร้างรายได้หลายพันยูโรต่อเดือนสำหรับเอเจนซี่ของสเปนที่สร้างเธอขึ้นมา “ผู้คนไม่สนใจจริงๆ ว่าเธอสร้างโดย AI” Freiberg กล่าว
เพื่อควบคุมภัยคุกคามส่วนบุคคล เช่น การขโมยข้อมูลส่วนบุคคลและความเสียหายต่อชื่อเสียง และภัยคุกคามทางสังคม เช่น การแทรกแซงการเลือกตั้ง วิธีการตรวจจับ Deepfake จะต้องทันสมัยอยู่เสมอ มันเป็น AI กับ AI ในเวที Deepfake แต่การจับคู่ไม่ได้เป็นเพียงการต่อสู้แบบนักรบ – และไม่ใช่การชนะด้วยอัลกอริทึมเพียงอย่างเดียว Freiberg เชื่อว่ากุญแจสำคัญสู่ประสิทธิผลเป็นแนวทางแบบองค์รวมที่ผสมผสานความรู้ด้านสื่อ (การรับรู้ถึงสิ่งที่เราแบ่งปันและวิธีการ) เข้ากับกฎระเบียบ เช่น กฎหมาย AI ของสหภาพยุโรป และโซลูชันการสนับสนุนทางเทคนิค เช่น ลายน้ำ และการวิเคราะห์แหล่งที่มาของกล้อง
'วงกลมกำลังจะปิดที่นี่': Mateusz Labuz
การตรวจจับ Deepfakes หมายถึงการกำหนดสิ่งเหล่านั้นก่อน Mateusz Łabuz จากมหาวิทยาลัยเทคโนโลยี Chemnitz กล่าว Labuz แยกความแตกต่างระหว่างแง่มุมด้านเทคนิค ประเภท ประสิทธิผล และอัตนัยของดีฟเฟค ตัวเลขทั้งหมดนี้เป็นแนวทางแบบองค์รวมที่จำเป็นในการต่อสู้กับพวกเขา
คำปราศรัยของ Labuz โน้มตัวจาก "การตรึงทางเทคนิค" เพื่อทำความเข้าใจทั้งหมด- เทคโนโลยีจำเป็นต้องมีกรอบที่ถูกต้อง เขากล่าว นั่นหมายถึงการเข้าใจไม่เพียงแต่ขนาดของปัญหาเท่านั้น แต่ยังรวมถึงธรรมชาติของปัญหาด้วย
เช่น ประเด็นเรื่องเป็นปัญหาด้านความปลอดภัยของผู้หญิง เนื่องจากสื่อลามกปลอมๆ ร้อยละ 99 เป็นของผู้หญิง ผู้หญิงที่ตกเป็นเหยื่อของดีพเฟคต้องทนทุกข์ทรมานกับผลกระทบทางร่างกายและจิตใจในระยะยาว
สัมพันธ์กับข้อเท็จจริงที่ว่า 98 เปอร์เซ็นต์ของวิดีโอดีพเฟคเกี่ยวข้องกับสื่อลามก และคุณมีดีพเฟคเป็นภัยคุกคามหลักต่อผู้หญิงโดยเฉพาะ
ในทางกลับกัน ยังมีพื้นที่สำหรับการใช้งานที่หลากหลายสำหรับ Deepfake และการตอบสนองที่เหมาะสม และผลกระทบของการรบกวนเพียงเล็กน้อยจากการโจมตีแบบ Deepfake ก็อาจส่งผลกระทบที่สะท้อนไปทั่วระบบนิเวศด้านความปลอดภัย จากการเติมเชื้อเพลิงเพื่อบ่อนทำลายความไว้วางใจในสื่อและข้อมูล
Labuz กล่าวว่ากฎระเบียบมักขาดมาตรการที่เพียงพอในการปกป้องผู้ใช้ นอกจากนี้เขายังกล่าวถึงการป้องกัน เช่น ลายน้ำ การแฮชแบบไบโอเมตริกซ์ และเทคนิคอื่นๆ ที่สามารถนำมาใช้ในการตรวจสอบความถูกต้องของสื่อได้ มาตรการรับมือจะต้องนอกเหนือไปจากขอบเขตทางกฎหมาย และจำเป็นต้องมีการลงทุน เครื่องมือของมนุษย์ และเงินทุน เทคโนโลยีต้องคู่กับการรับรู้ความยืดหยุ่นและวิธีการรองรับการขยายเสียง การบังคับใช้อย่างมีประสิทธิผลจะต้องแสดงให้เห็นได้
ลาบุซพูดว่า “วงกลมกำลังปิดลงที่นี่” สังคมจะต้องก้าวเร็วขึ้นเพื่อให้แน่ใจมีการเปิดเผยอย่างชัดเจนเสมอ ปรับระบบกฎหมายเพื่อสะท้อนถึงภัยคุกคามและความต้องการใหม่ๆ (เช่น การช่วยเหลือเหยื่อของสื่อลามกปลอม) และโดยทั่วไปจะเสริมสร้างความยืดหยุ่นทางสังคมและความตระหนักรู้ของสาธารณชน “ผู้ที่ตกเป็นเหยื่อของ Deepfake รู้จริง ๆ ว่าพวกเขาทำอะไรได้บ้างในสถานการณ์นั้น? ฉันเห็นจุดอ่อนอย่างมากในการตอบสนองในช่วงเวลาวิกฤติ”
ในท้ายที่สุด Labuz วางแนวทางแบบองค์รวมไว้บนเสาหลัก 3 ประการ ซึ่งยืนยันคำพูดหลายข้อของ Eisert และ Freiberg กฎระเบียบและมาตรการทางกฎหมาย เทคโนโลยีและระบบการตรวจจับ และการเพิ่มความสามารถในการฟื้นตัวทางสังคมเป็นหนทางออกจากภาวะที่กลืนไม่เข้าคายไม่ออกของเรา โดยจะต้องอาศัยการพูดคุย ความยืดหยุ่น และความกว้างใหญ่ในการค้นหาแนวทางแก้ไข
“มันไม่เกี่ยวกับการขัดขวางนวัตกรรม” เขากล่าว “เป็นเรื่องเกี่ยวกับการฟื้นฟูความไว้วางใจขั้นพื้นฐานในเทคโนโลยีในสังคมของเรา”
'การออกแบบ การตรวจจับ และคำอธิบาย': จาน ลูก้า มาร์เซียลิส
จาน ลูก้า มาร์เซียลิส คุมทีมหน่วยไบโอเมตริกซ์ของ sAIfer Lab- ห้องปฏิบัติการกำลังทำงานเกี่ยวกับวิธีการตรวจจับ Deepfake แบบพาสซีฟ และอนุกรมวิธานการตรวจจับ Deepfake ซึ่งจัดประเภทวิธีการตรวจจับหลายวิธี: การตรวจจับผ่านเครือข่ายทั่วไป/การตรวจจับแบบไม่มีทิศทาง อิงตามสิ่งประดิษฐ์ทางการมองเห็น อิงตามความสอดคล้องชั่วคราว สัญญาณทางชีวภาพ และลายนิ้วมือของกล้อง/GAN (กล่าวอีกนัยหนึ่งคือ นิ้วเกิน ปัญหาการกระพริบตา อัตราการเต้นของหัวใจ และเสียงดิจิตอล) การเรียนรู้เชิงลึกและเครือข่ายประสาทเทียมเป็นอีกทางเลือกหนึ่งในการขยายการตรวจจับ
sAIfer Lab ของ Marcialis กำลังทำงานอย่างต่อเนื่องเพื่อจัดทำแผนผังกระบวนการทางเทคนิคที่สนับสนุนวิธีการตรวจจับ Deepfake มันสะท้อนให้เห็นถึงความพยายามของชุมชนขนาดใหญ่ที่ไม่เพียงแต่ตรวจจับของปลอมเท่านั้น แต่ยังเพื่อกำหนดและแยกแยะว่ามันคืออะไร
'คุณไม่สามารถมองเห็นหรือสัมผัสความปลอมของเสียงได้': เจนนิเฟอร์ วิลเลียมส์
“การประมวลผลคำพูดและเสียงเคยต้องการปริญญาเอกสาขาวิศวกรรมไฟฟ้าทั้งหมด ตอนนี้ใครๆ ก็สามารถสร้าง Deepfakes เหล่านี้ขึ้นมาได้” เจนนิเฟอร์ วิลเลียมส์ ผู้ช่วยศาสตราจารย์จากมหาวิทยาลัยเซาแธมป์ตัน กล่าวว่า เจนนิเฟอร์ วิลเลียมส์ กล่าวถึงมุมหูของเหตุการณ์ล่มสลายแบบ Deepfakeใช้ประโยชน์จากอคติในการได้ยินของมนุษย์ ซึ่งทำให้เสียง “เล่นตลกกับเรา” คำพูดคือข้อมูลชีวมิติที่แสดงถึงเอกลักษณ์เฉพาะตัว หากถูกบุกรุก ผลลัพธ์อาจมีตั้งแต่การฉ้อโกงทางการเงินไปจนถึงความสามารถในการเชื่อสิ่งที่คุณได้ยินโดยสมบูรณ์
“สำหรับบางคน” วิลเลียมส์กล่าว “มันเป็นปัญหาของความเป็นจริงจริงๆ”
เทคโนโลยีการสังเคราะห์เสียงมีความก้าวหน้าอย่างรวดเร็ว ในปี 2559 SPSS ประสาทที่ทันสมัยที่เรียกว่า Merlin ยังคงฟังดูเหมือนหุ่นยนต์โปรเฟสเซอร์ ตอนนี้เรามีและเจ้าหน้าที่กิจการสาธารณะเสมือนจริงที่แถลงในนามของรัฐบาลแห่งชาติ กรณีการใช้งานเชิงบวกได้กระตุ้นให้เกิดการเปลี่ยนแปลงครั้งใหญ่ในเทคโนโลยีเสียง ซึ่งจะถูกนำไปใช้ในทางอาญาอย่างหลีกเลี่ยงไม่ได้
Willims กล่าวว่าการโจมตีด้วยเสียงแบบ Deepfake นั้นมีหลายรูปแบบ:
การโจมตีแบบบันทึกและเล่นซ้ำคือ "บุคคลที่พูดจริง ๆ แล้วเป็นบุคคลที่ถูกต้อง แต่คำพูดนั้นถูกจับและเล่นซ้ำ ดังนั้นคำพูดอาจไม่อยู่ในบริบท" สามารถทำได้ด้วยการบันทึกเสียงของบุคคลอย่างง่าย การบันทึกสามารถต่อเข้ากับตัวอย่างอื่น ๆ ของจริงหรือเพื่อเปลี่ยนบริบท (ลองนึกถึงสิ่งที่อาจเป็นผลมาจากการที่นักต้มตุ๋นไม่มีอะไรมากไปกว่าการบันทึกว่าคุณพูดว่า "ใช่")
การแปลงเสียง “ต้องใช้ผู้พูดเพื่อพูดคำที่ถูกต้อง” จากนั้นจะสามารถแปลงเสียงของผู้พูดต้นทางให้เป็นเสียงของผู้พูดเป้าหมายจำนวนเท่าใดก็ได้ เนื้อหาของสุนทรพจน์ยังคงเดิมแต่น้ำเสียงเปลี่ยนไป
“ใส่คำในปากของคนที่ไม่เคยพูดมาก่อน” ผ่านการฝังลำโพง ซึ่งต้องใช้การเรียนรู้ของเครื่องที่ซับซ้อนและข้อมูลการฝึกอบรมจำนวนมาก และช่วยให้สามารถควบคุมสิ่งต่างๆ เช่น การเสนอขาย ฉันทลักษณ์ และเสียงต่ำทางอารมณ์
Deepfake บางส่วนคือที่ที่คุณแก้ไขเล็กๆ น้อยๆ ง่ายๆ เพื่อผสมผสานสื่อจริงและสื่อปลอม ซึ่งเป็นการรวมความสามารถในการแก้ไขและการเรียนรู้ของเครื่องหลายประเภทเข้าด้วยกัน
สิ่งประดิษฐ์สำหรับตรวจพบได้ง่ายที่สุดในความถี่ที่สูงกว่า ซึ่งมักจะอยู่นอกขอบเขตการได้ยินของมนุษย์ สิ่งเหล่านี้สามารถเกิดขึ้นได้ในรูปแบบเสียงป็อปที่ไม่ได้ยิน เสียงหึ่งจากระยะที่ไม่ตรงกันประปราย และในปัญหาเกี่ยวกับการประกาศหรือจังหวะการหายใจ ไม่ได้มีการกระจายตามเวลาอย่างสม่ำเสมอ
ตามกฎหมายแล้ว มีความท้าทายทางสังคมและเทคนิคในระบบยุติธรรม และมีความขัดแย้งเกี่ยวกับคำศัพท์หลายคำที่ใช้ในการสนทนาเกี่ยวกับเสียงที่ล้ำลึก เช่น คำต่างๆ เช่น "สังเคราะห์" และ "ของแท้" ภาพรวมทางเทคนิคที่เปลี่ยนแปลงไปไม่สนใจการปรับตัวของหน่วยงานกำกับดูแลที่ช้าลง
วิลเลียมส์และทีมงานของเธอที่มหาวิทยาลัยเซาแธมป์ตันได้สร้างระบบสำหรับการตรวจจับ Deepfake ที่เรียกว่าปลอดภัยและเสียง(Southampton Audio Forensic Evaluator) ซึ่งต้องใช้เสียงเพียงวินาทีเดียวเพื่อให้การตัดสินใจเกี่ยวกับโมเดลที่มีความแม่นยำสูงและอธิบายได้ โดยประกอบด้วยแบบจำลองการรับรู้ของมนุษย์ แบบจำลองทางเดินเสียง แบบจำลองคำพูดทางอารมณ์ ความทนทานต่อเสียงรบกวน สภาพแวดล้อมทางเสียง และเครื่องตรวจจับความผิดปกติความถี่สูง ตามหลักการออกแบบ เป้าหมายคือให้รวดเร็ว ใช้งานง่าย ปรับขนาดได้สำหรับข้อมูลจำนวนมาก และใช้ได้กับกรณีการใช้งานต่างๆ
“ตอนนี้เป็นช่วงเวลาสำคัญ Chat GPT มีอายุเพียง 2 ปี'': Benoit Fauve
Benoit Fauve จากบริษัทไบโอเมตริกซ์ด้านเสียงนอกจากนี้ ยังพิจารณาข้อควรพิจารณาที่สำคัญบางประการเกี่ยวกับ Deepfakes ของเสียงด้วย เขาติดตามวิวัฒนาการของ Deepfake เสียงตั้งแต่วิธีการปลอมแปลงในยุคแรก ๆ จนถึงจุดเริ่มต้นของยุค Deepfake และในช่วงกลางปี 2010 คำว่า “deepfake” ได้รับการประกาศเกียรติคุณบน Reddit ในปี 2017 ตั้งแต่นั้นมา ก็มีการพัฒนาและการลงทุนใน Deepfake ที่สูงขึ้นอย่างต่อเนื่อง และวิธีการต่อสู้กับพวกมัน
ช่วงเวลาปัจจุบันที่ AI เจนเนอเรทีฟเปิดใช้งานบูมเสียงแบบ Deepfake ถือเป็นกุญแจสำคัญ Fauve กล่าว แต่เช่นเดียวกับวิลเลียมส์ เขาเน้นย้ำว่าภาษาบางภาษาจะต้องไม่พันกันเพื่อให้ได้ท่าทางการป้องกันที่แข็งแกร่งที่สุด และการรู้หนังสือเกี่ยวกับ Deepfakes เป็นส่วนสำคัญของสมการ
'เรามาที่นี่เพื่อสร้างระบบที่มีจริยธรรมและปลอดภัย': Luke Arrigoni
Luke Arrigoni ผู้ก่อตั้งสตาร์ทอัพเทคโนโลยีป้องกันภาพเหมือนดิจิทัลมุ่งเน้นธุรกิจของเขาเกี่ยวกับการออกใบอนุญาตออนไลน์และการคุ้มครองบุคคลสาธารณะ เขากล่าวว่า Loti Watchtower ผสมผสานการป้องกันการจดจำใบหน้า (การลบ Deepfakes ที่ไม่ได้รับอนุญาต ฯลฯ) และความผิด โดยที่สัญญาสำหรับตัวแทน AI ของความสามารถที่จะปรากฏในโฆษณาได้รับการออกแบบเพื่อประโยชน์ของความสามารถ
แต่หากมีข้อความที่ครอบคลุมจากเวิร์กช็อป ก็แสดงว่า Deepfakes จะส่งผลกระทบต่อทุกคนในไม่ช้า หากยังไม่มี เทคโนโลยีกำลังก้าวหน้า และวิธีการตรวจจับก็พยายามดิ้นรนเพื่อให้ทัน วงล้อหนูแฮมสเตอร์หมุนไปเรื่อยๆ การแข่งขันหนูดีพเฟคยังคงดำเนินต่อไป
หัวข้อบทความ
----------