一項由語音生物識別公司資助的最新營銷調查發現,大多數受訪者都擔心深擊和語音克隆的威脅。
公司,Pindrop,舉行了一個網絡研討會來討論調查。接受調查的消費者更有可能報告對語音克隆和深擊感到負面影響,但總數並沒有大大降低。 Synthedia進行了研究。
可以用軟件檢測到語音深擊,但是該技術仍在成熟,因為完全相同的AI生物識別技術領導者Piotr Kawa在另一個網絡研討會中向成員解釋了EAB(歐洲生物識別協會)。
貿易出版商FoateBot.ai的首席執行官兼研究總監Pindrop網絡研討會專家Bret Kinsella表示,消費者的意見良好。
Kinsella說:“在消費者中,意識水平比我想像的要高。”意識並不是調查引起他注意的唯一見解。
對Deepfakes進行調查的消費者中有22.3%表示,他們對使用該軟件感到非常積極。正確切地說,有22.3%的人問同樣的問題,他們感到非常負面。
當測量師向消費者詢問語音克隆作為一個概念時,大約18.8%的人看到了最大上行空間。越來越多的人對語音克隆產生了極大的負面影響 - 21.6%。
在某些受訪者在語音克隆和深擊中看到的積極性中,娛樂活動得到了改善。毫不奇怪,更關心的人看到了模仿和其他問題的負面可能性。
社交媒體是大多數人遇到篡改的視頻和音頻的地方。以降序:YouTube,Tik Tok,Instagram和Facebook。之後,這是電影和新聞出版物。
Kinsella說,這是一個問題,因為當某人分心時,很難檢測到深擊和配音克隆。
這與研究kawa相匹配,出版早在2021年,只有80%的研究參與者能夠正確地識別其所顯示的內容的真實性。在同一任務上設定的檢測算法是95%的時間。隨後的研究不再令人放心。
建立資源以應對概括挑戰
Kawa開始了最新的EAB午餐演講,並概述了言語綜合的概述,並且AI對現場產生了影響。根據Kawa的說法,現在已經廣泛使用了各種用於語音合成的商業SaaS和開源工具,使綜合語音“非常容易”。
他區分了文本到語音(TTS)和語音轉換,其中一個人聽起來像另一個人。兩者都可以用來進行音頻深擊攻擊。
當今的DeepFake檢測方法主要依賴於生物識別研究人員開發的深度學習算法,並且主要基於查找合成語音算法留下的偽像。 Kawa列出了十幾個基於原始音頻,基於前端的模型,算法前端和基於嵌入式的前端的模型之間的列表,以進行自我監督的學習。
根據Kawa的說法,培訓它們的數據集數量也迅速增加,尤其是在過去兩年中。
音頻深擊檢測面臨著概括的重大挑戰。 Kawa展示了模型傾向於在檢測使用與數據集相同的技術進行檢測的深層爆炸方面做得很好。但是,對於那些用不同技術製造的人,性能很差。
更大的培訓數據庫,包括用各種技術製成的深擊,以及數據增強技術可以改善檢測結果,但是引入變量等變量諸如更多背景噪聲之類的變量可能會使假貨更加難以檢測。
Kawa得出結論,對DeepFake檢測中的開放問題進行了綜述,包括概括和創建可以在消費級電子產品上迅速運行的模型。