Veriff的新Deepfakes Deep Dive報告是最新的關於Deepfake威脅的警鐘,以及“培養預防欺詐的生態系統”的需求。
身份驗證提供商的消息說,該報告的重點是深擊會影響數字經濟和減輕風險的戰略。
“深擊不一定是一種新現象。我們多年來處理了威脅,” Rishi Chauhan的身份和欺詐產品總監Rishi Chauhan說veriff。“但是,模仿用戶相似性的Genai驅動的能力為在線業務帶來了嚴重的安全問題。”
問題並不是說深擊是新的,而是新的工具和技術不斷使它們變得更好,更便宜,更易於創建。或者,正如該報告的一項關鍵要點所說:“人工智能威脅變得越來越複雜。 ”
在概括在Veriff博客上發表的報告中,內容總監Chris Hooper表示,生成的AI現在可以將“模仿人腦結構”的人工神經網絡分組到人工神經網絡中,並可以培訓以“在多樣化和非結構數據的數據之間進行複雜的,非線性的相關性”。
Hooper說:“結果,深度學習模型可以從其環境中獨立學習,從過去的錯誤到執行任務到極高的標準,包括創建虛假的音頻和視頻。”他指出,DeepMedia的估計約為500,000視頻和聲音深擊於2023年在全球社交媒體網站上共享。
雜亂無章的ID管理,弱防禦能力打開了欺詐者
具有脫節和不一致的身份管理流程和網絡安全性差的企業更有可能成為尋找簡單午餐的欺詐者的目標。合成身份並且偽造的文件可用於在了解客戶(KYC)入職過程中顛覆生物識別檢查,從而使欺詐者可以打開偽造的帳戶。現有帳戶也容易受到深層發展和其他數字社會工程技術的影響。
Veriff的報告確定了四個常見的欺詐技術欺詐者在AI和深度學習的幫助下發展了:面部掉期,嘴唇同步,木偶以及gans and AutoCododers。面部掉期越來越普遍,這越來越普遍,尤其是在色情內容中; Chauhan說,他們不是“每年都只是向前躍升,而是每隔幾個月。” LIP Sync和Puppet攻擊使用算法來指揮視頻中某人的身體運動,而gan和自動編碼器可用於基於大數據集生成合成身份。
“到保持欺詐者,公司需要一種不斷發展的多層方法,結合了一系列威脅緩解工具。不幸的是,沒有單一的解決方案。 ”
分層方法仍然最安全地押注整體網絡安全
它很可能是一堆安全元素,可以防止對深擊的防禦。 Chauhan說,協調良好的策略可能包括對身份文檔的全面檢查,關鍵設備屬性的檢查,將數據缺失視為危險因素,使用AI來識別偽造的圖像,模式檢測和生物識別分析照片和視頻。 Chauhan說:“無論您使用IDV,文檔驗證還是其他工具,您擁有的控件和數據點越多,對欺詐者來說越難。”