生成式人工智能的日益普及釋放了一系列行業的積極潛力,但也加劇了挑戰,特別是在身份欺詐和數字交易信任方面。在本週的網絡研討會上,Proof 和 Reality Defender 的行業領導者討論了人工智能驅動的欺詐實施方式的轉變以及應對新威脅所需的措施。
Kelly Pidhirsky,解決方案諮詢副總裁,強調了該公司從最初的 Notarize 到成為一個以確保高價值數字交互為中心的平台的歷程。
“我們最初是第一家在線提供法律公證的公司,從那時起,我們真正徹底改變了傳統的紙質裝訂流程,這一切都是為了為數字交互設定新標準,”Pidhirsky 說。 “快進到今天,它不僅僅是在線公證,並不是說它不是非常重要,它仍然是基礎,但我們現在正在成為一個全面的、以身份為中心的平台。”
Proof的身份授權網絡以加密方式將經過驗證的現實世界身份與數字文檔綁定在一起,旨在減少欺詐並確保合規性。 Proof 的客戶群涵蓋 7,000 多個組織,包括金融機構、醫療保健提供商和房地產公司,重新定義了虛擬環境中的信任。
小組成員的普遍共識是,生成式人工智能已經取得了顯著的發展,具有實時性正在成為下一個前沿。雖然之前的限制,例如極端面部角度的錯誤或觸摸頭髮等動作的錯誤,在六個月前就已經很明顯了,但最近的突破已經克服了這些障礙。這一進展使欺詐者能夠令人信服地實時冒充個人,這一壯舉需要復雜的培訓和計算資源。
Pidhirsky 補充道:“生成式人工智能的興起加劇了身份信任問題。”他指出,不良行為者可以輕鬆地利用先進工具來冒充個人並破壞 KYC(了解你的客戶)協議。 “僅 KYC 是不夠的,”她警告說,每年損失 810 億美元歸因於與身份相關的欺詐。
對抗深度造假威脅
梅森艾倫,銷售主管解決了日益複雜的深度偽造技術,該技術已從原始的數字模仿發展到能夠破壞企業和政府系統的超現實操縱。 Reality Defender 是一家總部位於紐約的網絡安全公司,採用多模型方法實時檢測合成媒體信號,從而防範欺詐活動。在上個月 A 輪融資的擴展中,該公司的人工智能檢測模型經過大量數據集的訓練,能夠在用戶驗證的關鍵時刻實時識別 Deepfake 偽造品。
“Deepfakes 是類似於防病毒軟件的貓捉老鼠遊戲的下一代版本,”Allen 說道,並解釋了 Reality Defender 如何不斷適應新興的 Deepfake 技術。他強調了問題的嚴重程度,並提到到 2027 年,生成式人工智能欺詐可能會成為每年價值 400 億美元的挑戰。
在金融環境中,實時視頻通話通常用於 KYC 流程和高價值交易。然而,欺詐者已經開始利用這些機制。例如,今年早些時候的一次 Deepfake 詐騙涉及在 Zoom 實時通話中冒充一名首席財務官和兩名副手,導致 2500 萬美元被盜。此類事件凸顯了現有身份驗證系統的漏洞。
這些風險不僅限於金融犯罪。 Deepfake 技術已被用來利用高管公開的語音和圖像數據,在詐騙和錯誤信息活動中冒充首席執行官。甚至是備受矚目的人物,例如美國參議員本·卡丁 (Ben Cardin) 成為深度造假的受害者,最近發生的一起事件涉及與一名據稱是烏克蘭官員的捏造互動。
Runway 和 ChatGPT 等生成式人工智能平台發展迅速,使得區分真實媒體和合成媒體變得越來越困難。艾倫用視頻生成技術進步的例子說明了這一點,並指出深度偽造品如何發展到與真實內容無法區分的地步。雖然這些工具提高了創造力和效率,但它們也使不良行為者能夠以最少的技術專業知識來擴大社會工程攻擊和金融欺詐。
號召性用語
演講者呼籲採取行動:重新評估數字身份驗證系統,以解決生成人工智能暴露的漏洞。 Pidhirsky 強調驗證文件背後“活著的、在場的人”的重要性,而 Allen 則強調企業需要採取主動措施來識別和減輕深度造假風險。
“生成式人工智能不僅是未來的問題,也是當前的現實,”Pidhirsky 警告說。該網絡研討會倡導加強技術提供商和利益相關者之間的合作,以確保數字交互免受日益複雜的威脅。
還推出了解決欺詐風險的工具。例如,推出了基於雲的身份驗證服務,支持生物識別檢查,同時專注於從行為分析中得出的欺詐見解。此外,Proof 的驗證 Deepfake 防御旨在通過確保用戶合法性來降低 Deepfake 等欺詐活動的風險。
Proof 的驗證平台已為 7,000 多家組織提供服務,包括金融機構、醫療保健提供商、小型企業和政府機構。
專家們還主張將持續監測和動態風險評估作為關鍵策略。通過視頻、語音和行為模式實時驗證身份的技術可以幫助阻止攻擊,同時保持真正用戶的易用性。
隨著深度造假技術變得越來越容易獲得,濫用的可能性可能會增加。
文章主題
|||||||||||









