根據語音錄製,一種新型的深擊類型正在擴散。語音生物識別算法繼續改善,威脅行為者正在將其用於欺詐,身份盜用和其他非法活動。
最近的惡習文章已經表明,4chan社交媒體平台上的幾個成員使用Elevenlabs的Beta軟件來產生聲音,聽起來像Joe Rogan,Ben Shapiro和Emma Watson Huts Racist或Abusive Eversive等著名人物。
Elevenlabs提供“語音綜合”和“語音克隆”服務,據稱是為了探索語音AI的新邊界,並幫助“創造者和出版商尋求最終的講故事工具”。
在翅膀中是Openai的Vall-e。根據TechCrunch在過去的幾個月中,該模型取得了重大進步,現在有能力產生令人信服的深擊。
需要更多嗎?進入我自己的聲音,法國初創公司Acapela Group由AI驅動的“語音銀行”軟件。在CES 2023提出,發現數字化,我自己的聲音旨在幫助那些失去講話能力來重現聲音的人們。
據報導,該軟件只能使用記錄的音頻創建令人信服的語音。
如何用生物識別技術解決語音深擊
但是,也正在製定反欺騙措施。
根據語音識別工程師的說法Pindrop,呼叫中心可以採取措施減輕聲音深擊的危害。
公司可以教育工人面臨危險。
回調功能可以結束可疑呼叫,並向帳戶所有者索取直接確認的出站電話。
最後,多因素身份驗證(MFA)和抗欺詐解決方案可以降低深層風險。 Pindrop提及為行為生物識別技術設計呼叫元數據,數字音調分析和鍵盤分析等因素。
甚至中國也在努力進行深層調節。如紐約時報,該國揭示了需要操縱材料的嚴格規則,才能獲得對象的同意並帶有數字簽名或水印。
法規是否在深擊中起作用。但是,權利倡導者警告他們可以進一步削減演講在中國。