在邊緣基礎架構中部署的生物識別和驗證系統的興起已經在準確有效的面部識別模型上造成了差距。基於深度卷積神經網絡(DCNN)的傳統面部識別技術具有局限性。這些包括對外部因素的敏感性,例如閉塞,照明條件的變化以及面部表情,這可能會損害識別準確性。因此,工程師需要一種可以克服這些挑戰的新方法。
工程師需要一種面部屬性識別技術,該技術使用優化的功能提取和融合技術來進一步提高準確性。這些技術涉及從面部圖像及其組合中提取獨特的特徵,以創建面部屬性的全面表示。此外,軟件模型必須支持在不同尺度下特徵之間的信息流的改進。這 ”基於精細元素的面部屬性識別技術的研究論文提出了解決這些挑戰的解決方案。
中國吉林警察學院犯罪科學和技術系的Yizhuo Gao的新面部識別方法利用雙線性在DCNN中匯總來提取面部特徵。它涉及在三個不同尺度上設置網絡以捕獲多尺度功能。這種多尺度方法可確保在各種分辨率上提取功能,從而捕獲面部的全球和本地屬性。從網絡中的不同卷積層中提取的功能組合在一起以形成整體功能集。
圖1。使用深卷積神經網絡的面部識別方法結構
圖1顯示了面部表達識別系統的體系結構過程,該過程始於旨在訓練模型的面部圖像數據庫。該模型有六個組件。
初始面部預處理階段涉及預處理圖像,可以通過面部檢測和圖像質量改進或裁剪圖像來完成圖像,僅包括面部以準備數據以進行特徵學習。
在功能學習步驟中,網絡處理各個圖像以學習各種面部表情。旋轉,縮放和顏色調整等技術使訓練數據集多樣化。然後,圖像通過並行運行的兩個單獨的捲積神經網絡進行特徵提取。這些DCNN通常用於轉移學習,將提取的功能結合在一起以提高模型的性能。
在以下功能學習中,組合輸出被饋送到SoftMax層,負責分類任務中的最終預測。
與學習並行,預先訓練的模型分析了來自數據庫的輸入圖像以進行預測。該模型預測與SoftMax層的輸出集成在一起,以提高預測準確性。
下一步是表達式識別,這是對面部表達式分類的最後一步。
然後,該模型輸出每個面部表達式的分類評分,在軟磁層之後,可以將其解釋為指示每個面部表達的可能性的概率。
實驗結果
該研究將其面部識別技術的性能與現有算法(例如VGG16-SSN,VGG16-PSN和APS)進行了比較,重點介紹了物理面部特徵和整體面部結構等屬性。圖2所示的結果表明,VGG16-SSN,VGG16-PSN,APS和擬議方法的平均準確率分別為86.79%,87.13%,91.55%和97.11%。
圖2。面部識別模型的準確性
該論文將其方法的卓越精度歸功於其使用全球和本地功能,這是通過共享子網絡和兩個特定於任務的子網絡的結合來促進的。這種方法不僅提高了APS算法的準確性,而且還解決了低分辨率面部識別的挑戰。
該研究檢查了該方法在各種分辨率方面的執行方式,範圍從15×15到100×100像素。由於缺乏圖像細節,識別較低分辨率的面孔(例如15×15至30×30)尤其具有挑戰性。但是,該論文的算法以15×5的最低分辨率達到了54.03%的精度。圖3顯示了圖像分辨率和準確率之間關係的數據。
圖3。不同分辨率的準確率比較
結論
在當今的生物識別應用中,不斷需要強力和高度準確的面部識別模型,適合於資源受限的部署邊緣設備。 GAO的說法,在傳統的CNN模型中,新一代的面部識別方法通過利用詳細的面部屬性來用於全球和局部特徵提取。實施這些算法可確保在有挑戰性的環境中所需的準確性水平,而外部因素否則可能會損害性能。