隨著全世界的深擊蓬勃發展,各國正試圖提出將統治其構成威脅的法規。
最新的努力來自歐洲的頂級技術標準機構,該機構發布了一份報告,說明使用人工智能操縱數字身份表示的風險。這不僅包括諸如生物識別認證的欺詐案件,還包括播種混亂,破壞選舉和造成衝突的潛力。
報告,標題為ETSI GR SAI 011,本週由歐洲電信標準學院獲得的AI集團發布(ETSI)。作為一個非營利組織,ETSI與歐洲委員會和歐洲自由貿易協會(EFTA)合作,以設定技術標準。
ETSI確保人工智能行業規范小組的主席Scott Cadzow說:“ AI技術允許自動操作,以前需要大量的手動工作,甚至可以從頭開始創建虛假的多媒體數據。”
可以使用不同媒體格式的DeepFake攻擊,例如圖片,視頻,音頻和文字,可用於影響公眾輿論。一個臭名昭著的案件是2022年3月的烏克蘭總統沃羅迪米爾·澤倫斯基(Volodymyr Zelenskyy)的Deepfake視頻,宣布該國的投降。它們還可以用於旨在破壞受害者聲譽或羞辱他們的人身攻擊中,例如偽造的性露骨視頻。
但是ETSI還強調了深冰攻擊是針對遠程生物識別和身份驗證的。
銀行在許多歐洲國家使用視頻標識來開設客戶的帳戶並確保合規性。說話者識別系統還用於對要求交易的客戶進行身份驗證。該報告警告說,這些程序的安全級別及其對使用操縱身份表示的攻擊的敏感性差異很大。
攻擊可能涉及從未知的第三人稱獲得的生物識別數據,或依靠純粹的合成數據。八月,香港警察被捕的騙子誰用塑造的圖像和被盜的身份證來欺騙銀行。
Deepfake攻擊還包括社會工程學,例如所謂的首席執行官欺詐攻擊(也稱為業務電子郵件妥協),其中攻擊者冒充正式人員或上級,並要求轉移匯款。來自ID R&D例如,表明40%企業或其客戶已經遇到了深層攻擊。
報告說:“深擊構成了一個複雜的問題,沒有靈丹妙藥,但是最好通過各個層面的措施來應對。”
ETSI提出了多種深層禍害的解決方案,包括教育和提高認識和提出需要標記操縱身份表徵的法規。在技術層面上,研究人員可以使用媒體取證等檢測方法,或應用經過培訓以發現操縱內容的AI系統。
該機構指出,可以通過減少假件成功的機會來解決對身份驗證方法的攻擊,包括生物識別技術。該策略包括引入高級挑戰 - 響應協議。
在通過視頻的遠程標識中,這可能意味著需要人員執行特定的運動,移動對像或產生其他類型的響應。在語音身份驗證中,這可能是要求該人講難以發音的單詞以及與哪種音頻生成方法鬥爭。除其他策略外,還可以衡量響應的延遲,這可能暗示計算機正在處理其響應。
報告結束。 ”報告結束。”