Meta的工程師已申請專利涵蓋將語音生物識別技術與皮膚振動相結合的身份驗證系統。
摘要描述了一個身份驗證系統,該系統“通過麥克風陣列檢測到與用戶發聲相對應的空中聲波。該系統還通過振動測量組裝,由發聲引起的用戶組織的振動來檢測。”檢測到的空氣傳播聲波和記錄的組織振動被轉變為身份驗證數據集,可以用作用戶身份驗證過程的一部分。
在硬件方面,所描述的模型使用耳機或近乎眼部顯示器(NED),還包括其他組件,包括深度攝像頭組件(DCA),音頻系統和位置傳感器。
創新是在深擊和語音克隆在實現財務欺詐方面成為一個重大問題。城市報告在針對FTSE公司高管的所謂首席執行官騙局中,至少有五家FTSE 100公司和一家FTSE 250公司在2024年對Deepfake襲擊的受害者受害。據英格蘭和WALES犯罪調查,據懷疑有多少案件,據懷疑實際人數較高,這是較高的。
Meta的專利說,鑑於需要強大的Deepfake檢測,語音生物識別技術作為身份驗證的唯一手段“可能不安全,因為一個人可以輕鬆地破解另一個人的聲音(通過計算機生成或假冒聲音)來破解設備。”
免費可用的語音克隆軟件和其他AI工具使問題更加複雜。 McAfee的一份新報告,名為“當心人造冒名頂替者。
這AI騙局的成本在財務和社會上都很高。麥卡菲說,在全球接受調查的成年人中,有25%具有AI語音騙局的經驗,其中十分之一的針對性。超過三分之一的人在AI騙局上損失了錢,報告損失了1,000多美元,而7%的人被淘汰了5,000美元至15,000美元。和興起深擊和虛假信息已經侵蝕了對在線內容的信任,其中32%的成年人說他們現在對社交媒體的信任比以往任何時候都要少。
“人工智能帶來了令人難以置信的機會,但是有了任何技術,就有可能在錯誤的手中惡意使用它。”
“這是我們今天看到的,借助AI工具的訪問和易用性,幫助網絡犯罪分子以越來越有說服力的方式擴展他們的努力。而不是僅僅打電話或發送電子郵件或發送電子郵件或短信,而在幾乎沒有努力的情況下,網絡犯罪分子就可以模仿某人使用AI語音限制技術,這會發揮您的情感聯繫,並有一種緊迫感,以增加您陷入騙局的可能性。 ”
因此,Meta通過使用“用戶發聲的獨特組合以及由發聲引起的用戶組織振動的獨特組合來驗證用戶身份驗證用戶的用戶的振動。”