วุฒิสมาชิกสหรัฐวางแผนที่จะรื้อฟื้นกฎหมายต่อต้านสื่อ“ Deepfake” ในปีที่จะถึงนี้ในขณะที่สมาชิกสภานิติบัญญัติเข้าร่วมสมาชิกของอุตสาหกรรมปัญญาประดิษฐ์และไบโอเมตริกซ์ในความพยายามที่จะควบคุมการปลอมแปลงที่ซับซ้อนซอกซอกรายงาน
“ Deepfakes-วิดีโอของสิ่งต่าง ๆ ที่ไม่เคยทำด้วยเสียงของสิ่งต่าง ๆ ที่ไม่เคยพูด-สามารถปรับแต่งเพื่อขับไล่ชาวอเมริกันออกจากกันและเทน้ำมันเบนซินลงบนไฟสงครามวัฒนธรรมใด ๆ ” วุฒิสมาชิกเบ็นซาสกล่าวกับ Axios “ แม้ว่านี่จะเป็นสิ่งที่ช่วยให้เราชุมชนข่าวกรองในตอนกลางคืนวอชิงตันไม่ได้พูดถึงปัญหาจริงๆ”
ศาสตราจารย์ด้านกฎหมายของมหาวิทยาลัยแมริแลนด์แดเนียลซิตรอนผู้ร่วมประพันธ์ผู้มีอิทธิพลรายงานใน Deepfakes บอก Axios ว่าระบบในการตรวจจับการปลอมแปลงโดยอัตโนมัติมีความสำคัญมากกว่าการเปลี่ยนแปลงทางกฎหมาย แต่ระบบดังกล่าวไม่ได้ปิด
PindropCEO Vijay Balasubramaniyan แนะนำว่าการเรียกร้องนี้เป็นกรณีของการตัดการเชื่อมต่อระหว่างอุตสาหกรรมเทคโนโลยีและผู้เชี่ยวชาญด้านกฎหมาย เขาบอกการอัปเดตไบโอเมตริกซ์ในการให้สัมภาษณ์ว่าปัญหาเป็นเรื่องจริงมากและเป็นภัยคุกคามทั้งต่อวาทกรรมสาธารณะรวมถึงการตรวจสอบตัวตนและบริการตรวจสอบความถูกต้องโดยเฉพาะอย่างยิ่งเนื่องจากความถี่ของการละเมิดข้อมูลและโอกาสที่เพิ่มขึ้นที่ตัวอย่างเสียงจะรวมอยู่ในข้อมูลการละเมิด อย่างไรก็ตามเขากล่าวว่าเทคโนโลยีปัจจุบันสามารถระบุเนื้อหาเสียงปลอมประเภทนี้ด้วยความแม่นยำสูงกว่า 90 เปอร์เซ็นต์และวิดีโอนั้นง่ายยิ่งขึ้นเนื่องจากความท้าทายในการซิงก์เสียงและรูปภาพ
“ เสียงของมนุษย์ที่มีวิวัฒนาการหลายล้านปีมีลักษณะบางอย่าง” เขาอธิบาย “ เครื่องจักรไม่สนใจสิ่งเหล่านี้ทั้งหมดพวกเขาแค่ต้องการให้มันฟังดูเหมือนคุณคุณสามารถใช้การแบ่งขั้วนั้นเพื่อตรวจจับการปลอมอย่างลึกซึ้ง”
อย่างไรก็ตามความพยายามยังคงดำเนินต่อไปเนื่องจาก Deepfakes มีความซับซ้อนมากขึ้น Google กำลังสร้างชุดข้อมูลขนาดใหญ่ของคำพูดเสียงสังเคราะห์ที่พูดโดยโมเดลการเรียนรู้เชิงลึกแบบข้อความเป็นคำพูด (TTS) ของ บริษัท เพื่อใช้ใน2019 ASVSPOOF Challenge- Balasubramaniyan ให้เครดิตกับ Google สำหรับการตระหนักถึงความสำคัญของความท้าทายและความต้องการข้อมูลสังเคราะห์มากขึ้นเพื่อให้แน่ใจว่าการทดสอบนั้นแข็งแกร่งและเทคโนโลยีที่สามารถตรวจจับ Deepfakes ได้ดีขึ้นอย่างต่อเนื่อง Google อธิบายการใช้เหตุผลในไฟล์โพสต์บล็อกประกาศการตัดสินใจโดยสังเกตว่าท่ามกลางความเสี่ยงที่อาจเกิดขึ้น Deepfakes อนุญาตให้นักแสดงที่ไม่ดีสามารถอ้างได้อย่างน่าเชื่อถือว่าเนื้อหาจริงเป็นของปลอม
Balasubramaniyan ตั้งข้อสังเกตว่าการปลอมโดยการเย็บตัวอย่างเข้าด้วยกันอาจตรวจจับได้ยากกว่าคำพูดที่สังเคราะห์โดยคอมพิวเตอร์ แต่ตัวแปรเช่นคุณภาพและปริมาณของเสียงต้นฉบับของเป้าหมายที่ใช้ในการปลอมทำให้เกิดความแตกต่างอย่างมีนัยสำคัญ แม้จะมีความจริงที่ว่า deepfakes ถูกสร้างขึ้นมาเพื่อหลอกหูมนุษย์ทำให้พวกเขาอ่อนแอต่อเครือข่ายประสาทลึกเขากล่าว
“ เมื่อคุณใช้ตัวอย่าง 8,000 ตัวอย่างทุกวินาทีเพราะเป็นมนุษย์ที่ผลิตมันขึ้นอยู่กับการวิวัฒนาการหลายล้านปีมีเพียงการกำหนดค่าบางอย่างที่สามารถเกิดขึ้นได้” Balasubramaniyan ชี้ให้เห็น “ แต่เมื่อเราดูเครื่องเหล่านี้และสิ่งที่พวกเขาผลิตพวกเขาจะปรับให้ดีที่สุดสำหรับการทำให้หูของคุณได้ยินบางสิ่งบางอย่าง”
สมาชิกหลายคนของสภาคองเกรสนอกเหนือจาก SASSE กำลังปรึกษากับนักวิชาการด้านกฎหมายและผู้กำหนดนโยบายของรัฐเพื่อให้เข้าใจปัญหาได้ดีขึ้นและกฎหมายต่อต้าน Deepfakes นั้นรวมอยู่ในร่างกฎหมายที่ขัดแย้งกันในสภานิติบัญญัติแห่งรัฐนิวยอร์กตาม Axios
David Greene ผู้อำนวยการฝ่ายเสรีภาพของมูลนิธิ Electronic Frontier Foundation แสดงความกังวลว่ากฎหมายอาจเป็นอันตรายต่อการพูดฟรี Balasubramaniyan เห็นด้วย
“ ฉันมีความเห็นว่าสิ่งที่คุณจะป้องกันจะเป็นผลไม้แขวนต่ำเช่นคนที่สร้างวิดีโอล้อเลียน” เขากล่าว “ ผู้โจมตีแรงจูงใจไม่ได้อาศัยอยู่ในสหรัฐอเมริกาหากมีคนต้องการสร้างความเสียหายจริงๆพวกเขาไม่สนใจกฎหมายของคุณ”
บิลของ Sasse จะกำหนดเป้าหมายทั้งการสร้างและการกระจายของ Deepfakes แต่ศาสตราจารย์ด้านกฎหมายของมหาวิทยาลัยไมอามีและริเริ่มสิทธิพลเมืองไซเบอร์ประธานาธิบดีแมรี่แอนน์แฟรงค์กล่าวว่าการพิสูจน์ว่าผู้คนแพร่กระจายอย่างรู้เท่าทัน
ปัญหาไม่สามารถเอาชนะได้ Balasubramaniyan ระบุ ด้วยนวัตกรรมในอุตสาหกรรมอย่างต่อเนื่องและการทำงานร่วมกันการตรวจจับ Livence สามารถนำไปสู่ความพยายามอย่างเต็มที่ของนักแสดงที่ฉ้อโกง
“ มีสิ่งหนึ่งที่ยอดเยี่ยม” เขากล่าว “ เราได้เห็นสิ่งนี้กับชุมชนโอเพ่นซอร์สเมื่อคนดีกลุ่มหนึ่งมารวมกันจำนวนคนดีหวังว่าจะยิ่งใหญ่กว่าจำนวนคนเลว”
หัวข้อบทความ
ปัญญาประดิษฐ์-การรับรองความถูกต้อง-การตรวจจับไบโอเมตริกซ์-ไบโอเมตริกซ์-เฟลค์-การตรวจสอบตัวตน-Pindrop-วิดีโอ