根據韓國Sungkyunkwan University Suwon的一份新報告,韓國Sungkyunkwan University Suwon的一份新報告顯示,常用的產生深擊方法可能會導致定期擊敗生物識別算法的圖像。
這三個研究人員的論文,我是真正的還是假的名人?'',對商業面部面部識別網絡服務的DeepFake模仿攻擊,以識別微軟,亞馬遜和Naver的名人。研究人員Shahroz Tariq,Sowon Jeon和Simon S. Woo指出,攻擊很容易被推廣到非遺產。
他們試圖進行有針對性的攻擊,打算欺騙算法將其誤認為是特定的名人和非目標的攻擊,以欺騙算法將算法錯誤地識別為將圖像識別為任何名人,後者始終取得成功。
在犯錯誤時,生物識別算法返回了很高的置信分數,在某些情況下,研究作者將其歸因於保留關鍵身份數據的深擊。
研究人員創建的三個公開可用數據集和兩個自定義數據集用於創建8,119個深擊和從框架中提取的面孔,以提交給Web API。
他們發現,某些攻擊方法比其他攻擊方法更為成功,並且每個生物特徵匹配系統對深層的反應都不同。
通過從Voxcelebth數據集中拍攝的圖像,微軟的Azure認知服務API確定了78%的深擊研究人員將其提交給它的名人,而亞馬遜不匹配68.7%的提交圖像。測試中使用的五個數據集的總體攻擊成功率為亞馬遜的28%,微軟為33.1%,而Naver的總體攻擊率為4.7%,但當研究人員採用提議的防禦方法時,攻擊率分別為4%,5%和1%。研究人員在對Deepfake模仿的抵制方面宣布“三個API中沒有明顯的贏家”。
研究人員提出,針對DeepFake模擬攻擊的防禦方法將現成的深層探測器應用於生物識別API。他們計劃構建REST API,以將傳入的請求篩選為名人面部識別API。
研究人員寫道:“擬議的防禦方法可以提供出色的結果。在某種程度上,這可能是一種有效的防禦機制。” “但是,這些現成的模型可能對每次DI攻擊可能不是最佳的,而假積極性可以在提高攻擊的成功率方面發揮了空虛的作用。此外,由於新的深層攻擊的興起,現有的檢測模型不能保證對它們有效地適用於它們。因此,對現有的和新的DI攻擊進行了更通用和有效的防禦方法,並需要進行啟用,並探索了該方向,並且需要進行啟用。更好地應對新的DI攻擊。”
今年早些時擊敗DeepFake探測器。