對深擊的恐懼可能已經達到頂峰。北約戰略通信(Stratcom)卓越中心(COE)就高度現實(但製造的)AI驅動的視頻進行了在線討論。
可以觀看的演講這裡,播放的機會是,一個偽造的錄像帶,他們賄賂,用手指進食或與政治競爭對手合作,將成為世界領導人的機會。但是,生物識別行業最終可能會受到影響。
一對專家邀請視頻會議引用了許多關於深擊的理由。但是,理由歸結為尚未發生的攻擊,檢測技術將加快甚至超過欺騙技術,而人們不會被愚弄。
北約Stratcom Coe主任JānisSārts開幕了“幾乎是Deepfakes的神話主題”的演講,並表明它們的破壞性潛力將與技術或經濟現實不符。
“僅僅因為可以使用技術並不意味著它將被使用,”哈佛大學 - 米特(IA)倡議的倫理與治理總監蒂姆·黃(Tim Hwang)說。
黃說,沒有證據表明虛假信息團隊正在使用深擊。這很大程度上是因為參與傳統和社交媒體影響運動的價格較低。
Hwang說,即使壞演員花費了“數万美元”來進行Deepfake活動,研究人員也有很多示例可以在機器學習中使用以發現視頻欺詐。
他還指出了“中毒”訓練數據(圖像和語音內容)的可能性,並帶有具有欺詐者的形象“放射性標記”。他解釋說,只是中毒的威脅,可能會被抑制,以至於不太可能發動攻擊,因為主要的社交媒體渠道會積極尋求標記和清潔飼料。
加入Hwang和Sārts的是衝突研究中心俄羅斯專家Keir Giles,他說有關領導者欺詐性錄像的論點可能被誇大了。
吉爾斯說,人們不容易感到震驚,因為欺騙性的媒體影響者已經很長時間了。他說,專家們擔心“對客觀真理或現實的信任侵蝕”,因為“第一張令人煩惱的肖像”被描繪了。
但是,與吉爾斯說的其他危險有關。
他說,一方面,他們可以從理論上使生物識別面部和語音識別與手寫簽名無關。細微溝通安全和生物識別技術的副總裁布雷特·貝拉內克(Brett Beranek)也參加了討論。
根據吉爾斯的說法,這項技術的縮放能力具有觀看。創建涉及可信的人化身並在全球範圍內分發的誤導性內容將帶來“接近零成本”。
似乎最擔心吉爾斯的頭像。
因政治和技術而煩惱的人們不太可能接受一個知名人士的信念。但是,頭像或化身可以做或說任何事情,並影響已經消耗其他欺騙性內容的人們的思想和行為。
他說,壞演員可以創造匿名的深層領導者,團體甚至運動。
該帖子於2020年5月14日上午9:04更新,以澄清該活動是由北約Stratcom Coe舉行的,這不是北約軍事指揮結構的一部分。