加利福尼亞大學伯克利分校和南加州大學的研究人員開發了一種方法來檢測DeepFake視頻,通過示意檢測個人言語的微妙特徵,並檢查視頻以查看是否存在特徵。
研究論文“保護世界領導人免受深層假貨” was authored by UC Berkeley Computer Science Graduate Student Shruti Agarwal, with her thesis advisor Hany Farid and a team from USC and the USC Institute for Creative Technologies, and published by the Computer Vision Foundation. The technique, which was found to determine whether videos were fake or real with accuracy between 92 and 96 percent, was presented at the Computer Vision and Pattern Recognition conference in Long Beach, CA, and applies to “face swap” and USC計算機科學家使用的“ Lip-sync” DeepFake方法用於創建用於研究目的的視頻。
研究人員使用OpenFace2面部行為分析工具包來檢測小型面部抽動,例如抬高的眉毛,鼻子皺紋,下巴運動和嘴唇,然後創建了團隊所謂的“軟生物特徵識別”模型,用於帶有數據的面部表情。研究人員分析了五個美國主要政治人物的視頻,發現每個人都在講話時具有不同的舉止。
報告作者寫道:“我們表明,面部表情和頭部運動之間的相關性可用於區分一個人與他人以及對他們的深層視頻。”他們還測試了針對壓縮,視頻剪輯長度以及所考慮的語音上下文的技術。他們發現,與基於像素的檢測技術相比,它更強大,但是如果說話者處於不同的語音環境(例如非正式環境,而不是提供準備好的備註的交付),則檢測成功是有限的。更大,更多樣化的培訓視頻可能會減輕這種限制。
研究人員還建議使用數字水印揭露深擊,但這種技術容易受到調整或壓縮大小的技術的影響,技術Xplore報告。