宣布其基於人工智慧的人臉欺騙檢測能力“顯著增強”,該公司部落格說應用更「更全面的方法」來檢測透過產生人工智慧創建或增強的惡搞。
這些增強功能包括對人工智慧模型留下的視覺偽影進行更強大的檢測,改進對受損硬體和跨平台相似性的檢測。提交,並透過人工智慧的進步加強對威脅管道的監控。
Persona 還將超過 25 個詐欺偵測微模型整合到其政府 ID 和生物辨識中在過去的兩個月裡。
貼文寫道:“為了捕捉更多類型的臉部欺騙,我們增加了支持政府身份證和自拍照驗證的模型的召回率,並提高了它們的精度,以減少自動分析過程中的誤報。”
鑑於日益複雜的硬件,受損硬體中的非視覺訊號也很關鍵。、合成身份和其他類型的臉部惡搞。可疑模式可能表示詐欺者正在探測 IDV 系統以測試新技術。
生成式人工智慧使得詐欺偵測難以跟上步伐
無論人們對產生人工智慧的可能性感到興奮還是擔心其潛在的破壞性,它都已經存在並且必須作為欺詐的放大器來解決。 Persona 表示已經觀察到過去幾年增加了50倍。
「鑑於過去幾年深度假貨數量增加了 50 倍,很明顯,Persona 執行長 Rick Song 在一份新聞稿中表示:“我們將繼續改變欺詐格局。” 「光是 2024 年,我們就幫助客戶偵測並阻止了超過 7,500 萬個利用基於人工智慧的臉部欺騙。
簡而言之,跟上基於人工智慧的人臉欺騙的發展步伐變得越來越困難。這項技術已經存在了足夠長的時間,不同類別的惡搞已經出現,而且武器庫正在迅速變得更加多樣化。
Persona 表示,「多年來,我們的微模型和整合模型已經識別出50 多種不同類別的基於人工智慧的面部欺騙,包括面部交換、合成面部和麵部變形,欺詐者在(不成功的)嘗試繞過我們的系統時使用了這些面部欺騙。能力」。
此外,「詐欺者利用各種技術,例如演示攻擊和– 針對身份驗證系統部署基於人工智慧的人臉欺騙。
同時,人類在偵測以人工智慧為基礎的超現實性臉部惡搞的效率越來越低。
詐欺策略需要能夠適應不斷變化的攻擊
這意味著制定一種策略來整合不同類別的訊號(包括視覺和非視覺以及更大的模式)並隨著時間的推移進行調整非常重要。 Persona “觀察到詐欺者在註入攻擊中使用基於人工智慧的臉部欺騙和竊取的自拍照。”
“如果沒有我們的非視覺信號,像這樣的實例就有可能繞過基於視覺的檢查。”
Gartner 預測,到 2026 年,使用人工智慧生成的臉部深度偽造的攻擊可能會讓多達 30% 的企業採用人工智慧驅動的多管道和身份驗證解決方案作為必要的防禦。確實如此:詐欺者不斷完善和改進他們的技術。 Persona 指出,“僅僅因為你的方法今天有效,並不意味著明天它仍然有效。”
打擊人工智慧人臉惡搞需要宋所說的「積極主動、適應性強的方法」。
Persona 的整體策略保證了全面的訊號庫、靈活性和安全性。 「我們的數據分析、工程和威脅監控團隊正在不斷策劃新的數據來源,以及企業在主動攻擊期間可以廣泛或更策略性地應用的檢測模型。
文章主題
||||||||||