การเปิดตัว API Voice API แบบเรียลไทม์ของ Openai ได้ตั้งคำถามเกี่ยวกับวิธีการใช้เทคโนโลยีเสียงไบโอเมตริกซ์ AI เพื่อใช้ในการหลอกลวงทางโทรศัพท์
Daniel Kang นักวิทยาศาสตร์คอมพิวเตอร์นักวิทยาศาสตร์คอมพิวเตอร์หมายเหตุในขณะที่แอพพลิเคชั่น AI Voice มีแอพพลิเคชั่นที่มีประโยชน์เช่นการบริการลูกค้าที่เปิดใช้งานด้วยเสียง“ เช่นเดียวกับความสามารถของ AI จำนวนมากตัวแทนที่เปิดใช้งานเสียงมีศักยภาพในการใช้คู่”
ทุกคนที่มีโทรศัพท์รู้ว่าเรื่องธรรมดาแค่ไหนการหลอกลวงทางโทรศัพท์ทุกวันนี้ คังตั้งข้อสังเกตว่าทุก ๆ ปีพวกเขามีเป้าหมายมากถึง 17.6 ล้านคนอเมริกันและก่อให้เกิดความเสียหายสูงถึง 40 พันล้านดอลลาร์
ตัวแทนรูปแบบภาษาขนาดใหญ่ที่เปิดใช้งานเสียง (LLM) มีแนวโน้มที่จะทำให้ปัญหารุนแรงขึ้น อันกระดาษส่งไปยัง Arxiv และให้เครดิตกับ Kang, Dylan Bowman และ Richard Fang กล่าวว่ามันแสดงให้เห็นว่า“ ตัวแทน AI ที่เปิดใช้งานเสียงสามารถดำเนินการที่จำเป็นในการหลอกลวงทั่วไปได้อย่างไร”
นักวิจัยเลือกการหลอกลวงทั่วไปรวบรวมโดยรัฐบาลและสร้างตัวแทนที่เปิดใช้งานด้วยเสียงพร้อมคำแนะนำในการหลอกลวงเหล่านี้ พวกเขาใช้ตัวแทนที่สร้างขึ้นโดยใช้ GPT-4O ชุดเครื่องมือเข้าถึงเบราว์เซอร์ผ่านนักเขียนบทละครและคำแนะนำเฉพาะหลอกลวง ตัวแทนเสียง AI ที่เกิดขึ้นสามารถทำสิ่งที่จำเป็นในการดำเนินการหลอกลวงทั่วไปทุกครั้งที่พวกเขาทดสอบ กระดาษอธิบายว่าพวกเขาเป็น“ ความสามารถสูง” ที่มีความสามารถในการ“ ตอบสนองต่อการเปลี่ยนแปลงในสภาพแวดล้อมและลองใหม่ตามข้อมูลที่ผิดพลาดจากเหยื่อ”
“ เพื่อกำหนดความสำเร็จเราได้รับการยืนยันด้วยตนเองว่าสถานะสิ้นสุดนั้นประสบความสำเร็จในแอปพลิเคชัน/เว็บไซต์จริงตัวอย่างเช่นเราใช้ Bank of America สำหรับการหลอกลวงการโอนเงินผ่านธนาคารและยืนยันว่าเงินถูกโอนจริง”
อัตราความสำเร็จโดยรวมในการหลอกลวงทั้งหมดคือ 36 เปอร์เซ็นต์ อัตราการหลอกลวงแต่ละครั้งอยู่ระหว่าง 20 ถึง 60 เปอร์เซ็นต์ การหลอกลวงจำเป็นต้องมี“ การกระทำจำนวนมากโดยการหลอกลวงการโอนเงินผ่านธนาคารดำเนินการ 26 ครั้งเพื่อให้เสร็จสิ้นการหลอกลวงที่ซับซ้อนใช้เวลา“ สูงสุด 3 นาทีในการดำเนินการ”
“ ผลลัพธ์ของเรา” นักวิจัยกล่าวว่า“ ตั้งคำถามเกี่ยวกับการปรับใช้ตัวแทน AI ที่เปิดใช้งานด้วยเสียงอย่างกว้างขวาง”
นักวิจัยเชื่อว่าความสามารถที่แสดงโดยตัวแทน AI ของพวกเขานั้นเป็น“ ขอบเขตที่ต่ำกว่าสำหรับตัวแทน AI ที่ได้รับการช่วยเหลือด้วยเสียงในอนาคต” ซึ่งมีแนวโน้มที่จะปรับปรุงในขณะที่สิ่งอื่น ๆ ที่ละเอียดน้อยกว่าและ“ วิธีการยศาสตร์ที่มากขึ้น กล่าวว่า“ โมเดลที่ดีกว่าการนั่งร้านตัวแทนและการแจ้งเตือนมีแนวโน้มที่จะนำไปสู่ตัวแทนการหลอกลวงที่มีความสามารถและน่าเชื่อถือยิ่งขึ้นในอนาคต”
ด้วยเหตุนี้“ ผลลัพธ์เน้นความจำเป็นเร่งด่วนสำหรับการวิจัยในอนาคตในการปกป้องผู้ที่ตกเป็นเหยื่อที่มีศักยภาพการหลอกลวงที่ขับเคลื่อนด้วย AI-
อย่างไรก็ตามมีวิธีแก้ปัญหาที่เป็นไปได้สำหรับปัญหาที่จะพบในภาคชีวภาพและภาคเอกชนดิจิตอล การตรวจจับเสียง AI แบบเรียลไทม์เป็นคุณสมบัติของผลิตภัณฑ์ตรวจสอบพัลส์ของ Pindrop ซึ่งระบุว่า "สามารถทำได้ตรวจจับคำพูดที่สร้างขึ้นโดย AIในไฟล์เสียงดิจิตอลใด ๆ ที่มีความแม่นยำ 99 เปอร์เซ็นต์” ระบบตรวจจับเสียง Deepfake ของมันได้คิดในกรณีที่มีโปรไฟล์สูงของdeepfake การเมืองเนื้อหา.
นักวิจารณ์กล่าวว่าชุดปัจจุบันของเครื่องมือตรวจจับ Deepfakeไม่น่าเชื่อถือพอ มหาวิทยาลัยแห่งแคลิฟอร์เนียศาสตราจารย์ด้านวิทยาศาสตร์คอมพิวเตอร์ของ Berkeley Hany Farid ได้กล่าวว่าด้วย AI Voice Deepfakes“ บาร์นั้นสูงขึ้นอยู่เสมอฉันสามารถนับจำนวนห้องปฏิบัติการในโลกที่สามารถทำสิ่งนี้ได้อย่างน่าเชื่อถือ” ด้วยเครื่องมือตรวจจับ Deepfake ที่เปิดเผยต่อสาธารณะ Hanid กล่าวว่า“ ฉันจะไม่ใช้มันเงินเดิมพันนั้นสูงเกินไปไม่เพียง แต่สำหรับการดำรงชีวิตและชื่อเสียงของแต่ละคนเท่านั้น แต่ยังรวมถึงแบบอย่างที่แต่ละคดี”
ที่จะพูดว่า: ส่วนใหญ่ซอฟต์แวร์ตรวจจับ Deepfakeอาจไม่พร้อมสำหรับตัวแทน AI ที่เปิดใช้งานด้วยเสียง
แต่การวิจัยและพัฒนายังคงดำเนินต่อไป อีกหนึ่งบทความล่าสุดเกี่ยวกับ arxiv ยอมรับว่า“ เป็นการตรวจจับคำพูดลึกงานได้เกิดขึ้นในช่วงไม่กี่ปีที่ผ่านมามีเอกสารสำรวจไม่มากที่เสนอสำหรับงานนี้ นอกจากนี้การสำรวจที่มีอยู่สำหรับงานตรวจจับคำพูด Deepfake มักจะสรุปเทคนิคที่ใช้ในการสร้างระบบตรวจจับคำพูด Deepfake แทนที่จะให้การวิเคราะห์อย่างละเอียด”
ความต้องการดังกล่าวทำให้นักวิจัยจากออสเตรียญี่ปุ่นและเวียดนามทำการสำรวจและเสนอวิธีแก้ปัญหาใหม่ การต่อสู้กับเสียง Deepfakes ยังไม่หายไป
หัวข้อบทความ
การตรวจจับไบโอเมตริกซ์-ไบโอเมตริกซ์-การตรวจจับ deepfake-เฟลค์-การป้องกันการฉ้อโกง-Openai-Pindrop-ชีวภาพแบบเรียลไทม์-เสียงชีวภาพ