存在Deepfake檢測暗示著深泡偵探的存在。可以說是canstDeepFakesIDV討論小組是一項合作行業的努力,致力於解決數字ID驗證系統中的深擊和相關攻擊的威脅。
通過Paravision的博客,一個新的文章該小組分解了“在遠程身份驗證中的深層威脅和攻擊向量”。在Paravision的首席產品官Joey Pritikin的帶領下,基於包括Daniel Bachenheimer和Stephanie Schuckers在內的行業專家的工作,該文章探討了Deepfake攻擊的方法和攻擊點,重點是“Deepfake威脅並在遠程身份驗證範圍內攻擊向量。 ”
該文章說:“攻擊者可能會使用Deepfake技術來提出偽造的身份,修改真實文檔或創建合成角色,在驗證過程中利用弱點。” Deepfake工具包繼續隨著元素(例如面部掉期,表達互換,合成圖像和合成音頻。攻擊可能以物理表現攻擊的形式出現,注射攻擊Deepfake偵探說,理解這些威脅。
深層類型包括面部掉期,合成媒體,語音克隆
就像他們的技術驅動力一樣,AI,Deepfakes不是一回事,而是“一類數字面部和語音操縱和/或合成,可用於破壞遠程數字身份方案”。常見格式包括靜止圖像和移動圖像以及假音頻。
面部掉期在視頻中用他人的臉代替了一個人的臉,通常是無縫的。表達互換使騙子可以控制視頻阿凡達的面部表情。 stylegan2型合成圖像面孔是高度現實的,但完全是假的,它使用使用相反算法來完善細節的生成對抗網絡創建。基於擴散的圖像從文本提示中創建逼真的圖像。 Synthesia和Heygen(例如Synthesia和Heygen)的下一代視頻工具創建了完全可以像真正的人類一樣移動和說話的完全合成化身。
在音頻方面,有綜合語音和語音克隆,它複製某人的聲音以繞過語音身份驗證系統。
常見的攻擊點包括圖像捕獲,注入飼料
在標準遙控器中身份驗證過程,生物識別技術(例如自拍照片)與身份文件一起捕獲。然後將兩者進行比較以驗證身份。該工作流程在自動化和手動工作流程中介紹了各種攻擊點。
在前端圖像捕獲點,有身體上的風險演示攻擊和注射攻擊劫持軟件接口。捕獲身份文件時,深泡麵的臉可以插入物理文檔中,可以是真實的或完全合成的。它們還可以將它們作為數字圖像或視頻注入捕獲軟件接口。使用實時視頻聊天的手動工作流也容易受到模擬網絡攝像頭的注入視頻。
在後端,有風險DeepFake內容可能無意間存儲在系統中,或者有內部人類顛覆宿主系統的風險。
深擊是如何發展成為最終欺詐工具的
隨著生成性AI技術的改善,Deepfakes將繼續模糊真實和虛擬人之間的界限。 “ Deepfake技術正在迅速發展,產生越來越現實的說服虛假內容這篇文章說,這很難檢測到。改進的個性化使針對特定的個人變得更容易。處理能力的新邊界使實時的深層製造和操縱成為可能。行為模仿的調整是微調的,不僅複製了外觀和聲音,而且還可以更容易地與其他騙局相處。
一個郵政從LinkedIn上的Paravision總結了理解如何以及何時發生深層攻擊的論點。 “從初始開始生物識別捕獲進行現場視頻互動,了解這些脆弱性的這些特定點是增強數字防禦和確保安全身份驗證的關鍵。 ” Deepfake偵探正在案件中。