利用深度偽造進行的詐欺嘗試已成為線上安全領域的一部分,組織轉向演示攻擊檢測和注入攻擊檢測來對抗針對面部或語音生物識別系統的欺騙。他們也越來越多地部署多模式生物辨識和訊號分析工具。
上週舉行了一次網路研討會,展示了「保護聯絡中心免受人工智慧驅動的語音詐欺」的願景。聯合創始人兼執行長 Ben Colman 和產品主管 Diana Hsieh 解釋了該公司如何應用即時檢測和多因素身份驗證。
科爾曼指出,語音是最常被生成人工智慧欺騙的方式,並展示了現實生活中語音深度偽造的例子。該公司發現,在每天為一級銀行客戶處理的 10,000 通電話中,有 0.17% 是深度偽造的。
Reality Defender 人類參與副總裁 Gabe Regan 在一家公司寫道部落格文章向即時、多模式深度偽造檢測的轉變代表了組織合成媒體檢測方法的策略轉變。
Regan 指出 Entrust 近期的研究顯示,40% 的身份詐欺嘗試均涉及針對生物辨識系統的深度偽造攻擊。
Daon 監視清單的新多重訊號方法
已獲得一種建立更好的深度偽造語音觀察清單的方法的專利。
專利“用於增強詐欺資料檢測的方法和系統」 美國專利商標組織上周向 Daon 發布了該專利,並將首席技術官拉爾夫·羅德里格斯 (Ralph Rodriguez) 列為其發明人。
根據專利文件,目前的語音觀察名單的價值正在下降,因為它們識別了生物識別系統的已知威脅,但無法適應不斷發展的詐欺方法。他們還“通常無法充分分析與語音互動相關的行為模式,因此無法捕獲可能表明欺詐活動的線索。”
該專利中描述的用於增強詐欺數據檢測的系統由一個風險評分機制組成,該機制攝取行為、上下文和語音數據。對數據進行分析以對風險等級進行總體評估,高風險分數會觸發審查或交易暫停等行動。與 Reality Defender 一樣,分析是即時進行的,以發現與合成語音相關的異常情況。
Daon 計劃在其內部部署創新技術Rodriguez 表示,2025 年生產部署的解決方案生物辨識更新在一封電子郵件中。
印度人工智慧專案中的 Deepfake 檢測
在印度,MEITY(電子與資訊科技部)倡議印度人工智慧已發表個人和組織領導一系列開發項目以提高人工智慧安全性和公平性的意向書。
IndiaAI 尋求為人工智慧生成的內容添加浮水印或標籤、執行人工智慧風險評估和管理、壓力測試和深度造假檢測以及道德人工智慧框架的工具。
Deepfake 偵測工具應執行即時 Deepfake 辨識和緩解。
申請現已開放至 2025 年 1 月 9 日,提交指南如下:可以在這裡找到。
印度電腦緊急應變小組 (CERT-In) 在 11 月 27 日發布的諮詢報告中認識到深度造假錯誤訊息和詐欺行為的增加。這印度斯坦時報報道稱,莫迪總統的印度人民黨發布了幾段虛假音頻剪輯後發布了該建議。
BioID Deepfake 檢測獲獎
針對照片和影片的即時深度換臉偵測技術於 11 月榮獲第九屆慕尼黑數位創新獎。
獲獎者是在活動期間透過現場觀眾投票選出的,活動的主題是「Reality Check AI」。
BioID 執行長 Ho Chang 表示:“隨著深度造假和冒充攻擊的增加,保護數位身分比以往任何時候都更加重要。”
該公司推出了今年早些時候,該公司分析了面部特徵以尋找操縱跡象。
文章主題
||||||||