一對新的研究論文介紹了使用AI對生物識別系統進行複雜的欺詐嘗試,在一種情況下,以進行變形攻擊,而在另一種情況下,使用合成數據來進行模板倒置攻擊。
達姆施塔特應用科學大學,被稱為德國矽谷,已發表了一篇有關培訓算法的論文,用於變形攻擊檢測(MAD)。
這紙提出了兩種基於轉移轉移的方法,用於自動創建數字印刷掃描面部圖像,並在訓練瘋狂算法中使用此類圖像。當包括我們的合成和紋理轉移打印掃描(分別為600 dpi)到手工製作的圖像時,該方法在FRGC/FERET數據庫中的同樣錯誤率(EER)為3.84%和1.92%。
該論文是由生物識別技術和互聯網安全研究小組的研究人員撰寫的,並在ARXIV上發表。
預期合成數據攻擊
另一項研究紙,由IEEE生物識別技術,行為和身份科學交易出版,提出了一種使用合成數據針對面部識別系統的模板反演攻擊的新方法。該論文的作者包括瑞士IDIAP研究所的生物識別安全與隱私組織負責人Sebastien Marcel。
紙張指出:“我們的實驗表明,具有合成數據的訓練模型可用於從真實面部圖像中提取的模板中重建面部圖像。”
該方法的表現優於以前針對四個不同面部數據集的面部識別模型的攻擊方法,包括Mobio,LFW,AgeDB和IJB-C數據集。根據這項研究,它還優於面部模板的高分辨率2D面部重建方法,並通過SOTA面部重建方法獲得競爭成果。在針對面部識別系統的實際表現攻擊中,還測試了生成的面部圖像。
紙張的結果和材料可再現它可用GitLab。
IDIAP已廣泛工作模板反轉攻擊,在面部演變攻擊方面的工作仍在各個場所繼續進行,包括歐洲委員會的IMARS項目。