數字威脅是全球威脅。隨著生成式人工智能算法生成的深度偽造品充斥網絡空間,世界各地的政府和私營公司正在加強防禦。
在印度,班加羅爾科學研究所 (IISc) 和金融科技公司 Infibeam Avenues Ltd. 宣佈建立戰略合作夥伴關係,共同開發實時系統。印度創業新聞 (ISN)說Infibeam 的人工智能部門 Phronetic.AI 和 IISc 的視覺與人工智能實驗室 (VAL) 將合作開發專為實時視頻通信量身定制的反深度偽造技術——“一種先進的視頻人工智能代理,可主動監控正在進行的視頻通話,如果對方被識別為深度偽造,則會向用戶發出警報。”
Phronetic.AI 已為其算法申請了專利,IISc 將通過研究和更新幫助完善該算法。 Infibeam Avenues Ltd. 董事長兼董事總經理 Vishal Mehta 表示,此次合作是“加強網絡安全和防止濫用信息的關鍵一步”。進行欺詐活動。 ”
目標是提供一個經濟高效、用戶友好的深度偽造檢測平台,允許非專家驗證實時視覺和音頻的真實性,並且可以在不影響速度或準確性的情況下大規模操作。潛在的用例包括銀行、醫療保健、金融、人力資源、政府組織和執法部門。
“作為IISc 計算與數據科學系 (CDS) 教授兼系主任 Venkatesh Babu 教授表示:“隨著人工智能繼續以前所未有的速度發展,深度造假的興起帶來了重大挑戰。解決這一問題需要人工智能研究人員不斷努力,監控新興的生成模型並開發強大的技術來有效檢測深度造假。”只有這樣做才能維持公眾對數字通信的信任。
初創公司 Neural Defend 探索代理 AI 深度偽造檢測
也有ISN報告Neural Defend 是一家網絡安全初創公司,在由總部位於古爾岡的天使投資公司 Inflection Point Ventures (IPV) 領投、麻省理工學院 SBXI、Techstars San Francisco 和 Soonicorn Ventures 參與的種子前融資中,其 Deepfake 檢測產品籌集了超過 60 萬美元。
Neural Defend 首席執行官 Piyush Verma 表示,該公司的目標是“通過創新的人工智能代理技術保護真實身份免受數字欺騙。”該初創公司的專有人工智能模型可以檢測多種數據格式的深度偽造,包括視頻、音頻和實時流。它正在紐約和新加坡運行試點項目,並尋求擴大與全球企業、金融科技公司和金融機構的業務規模。
DARPA 與數字安全研究所合作
美國國防高級研究計劃局 (DARPA) 已在其雷達上,發起了多項舉措來檢測、分析和減輕深度偽造技術的影響。
現在,美國國防部(DOD)機構已與美國數字安全研究所(DSRI)簽訂合作研發協議UL 研究院“繼續推進人工智能生成媒體的檢測、歸因和特徵研究。”
一個部落格該機構表示,“從 2016 年的媒體取證計劃開始,並繼續語義取證(SemaFor) 計劃在 2020 年,DARPA 已經開發出全面的取證技術來幫助減輕這些在線威脅。 ”現在,該機構正在“積極將由此產生的技術轉讓給美國政府,並與業界合作將這些工具商業化。 ”
根據新協議,DSRI 將接管 SemaFor 正在進行的公開競賽——人工智能取證開放研究挑戰評估 (AI FORCE),宣布挑戰結果,並在學術會議上授予研究資助。
DARPA 的 SemaFor 項目經理 Wil Corvey 表示:“創新不會在真空中發生,因此對我們來說,與行業、學術界和潛在的轉型合作夥伴交流我們正在做的工作非常重要,以開發實際應用的技術。” “DSRI 的產品測試和評估使命,特別是針對產品部署所在的複雜且不斷變化的社會技術環境,使其成為這一轉型領域的理想選擇。”
韓國和澳大利亞研究人員對當前的深度造假檢測表示犯規
澳大利亞聯邦科學與工業研究組織的研究人員(聯邦科學與工業研究組織) 和成均館大學韓國的 SKKU 分析了 51 個領先的 Deepfake 檢測器,並對 16 個不同的 Deepfake 檢測器進行了測試,結果發現它們非常不足。
信息時代說CSIRO 團隊使用來自 DeepFaceLab、Dfaker、Faceswap、LightWeight、FOM-Animation、FOM-Faceswap 和 FSGAN 的工具,針對第三方測試集 DFDC 和 Celeb-DF 測試了三種類型的內容:合成、換臉和重演。
所有的 Deepfake 探測器在應用於“現實世界”內容的測試中都失敗了。
考慮到深度造假技術的發展速度,其表現不佳令人擔憂。逼真的深度偽造視頻、模仿聲音和注入攻擊:該技術已經導致了臭名昭著的欺詐案件,例如 2500 萬美元的欺詐案件英國工程公司 Arup 的一名香港員工(該公司的首席信息官 Rob Greig 堅稱“這種情況發生的頻率比很多人意識到的要頻繁)。IA 的文章甚至引用了安全公司 Trend Micro 的說法,即我們很快就會看到“真人的惡意‘數字雙胞胎’,接受他們的知識、個性和寫作風格的訓練。 ”
CSIRO 和 SKKU 的團隊建議企業探索光譜偽影分析、生成對抗網絡 (GAN) 和。更好的深度換臉檢測器需要“整合一系列數據集,包括音頻、文本、圖像和元數據,以及使用合成數據和上下文分析。”
CSIRO 網絡安全專家 Sharif Abuadbba 博士表示:“通過分解檢測方法的基本組成部分,並使用真實世界的深度偽造品對它們進行嚴格的測試,我們正在開發能夠更好地應對一系列場景的工具。”
文章主題
||||||||||









