生成式人工智慧的日益普及釋放了一系列行業的積極潛力,但也加劇了挑戰,特別是在身份詐欺和數位交易信任方面。在本週的網路研討會上,Proof 和 Reality Defender 的行業領導者討論了人工智慧驅動的詐欺實施方式的轉變以及應對新威脅所需的措施。
Kelly Pidhirsky,解決方案諮詢副總裁,強調了該公司從最初的 Notarize 到成為一個以確保高價值數字互動為中心的平台的歷程。
「我們最初是第一家在線上提供法律公證的公司,從那時起,我們真正徹底改變了傳統的紙質裝訂流程,這一切都是為了為數位互動設定新標準,」Pidhirsky 說。 「快進到今天,它不僅僅是在線公證,並不是說它不是非常重要,它仍然是基礎,但我們現在正在成為一個全面的、以身份為中心的平台。”
Proof的授權網絡以加密方式將經過驗證的現實世界身分與數位文件綁定在一起,旨在減少詐欺並確保合規性。 Proof 的客戶群涵蓋 7,000 多個組織,包括金融機構、醫療保健提供者和房地產公司,重新定義了虛擬環境中的信任。
小組成員的普遍共識是,生成式人工智慧已經取得了顯著的發展,具有即時性正在成為下一個前沿。雖然先前的限制,例如極端面部角度的錯誤或觸摸頭髮等動作的錯誤,在六個月前就已經很明顯了,但最近的突破已經克服了這些障礙。這項進展使詐欺者能夠令人信服地即時冒充個人,這項壯舉需要複雜的培訓和計算資源。
Pidhirsky 補充說:「生成式人工智慧的興起加劇了身分信任問題。」他指出,不良行為者可以輕鬆地利用先進工具來冒充個人並破壞 KYC(了解你的客戶)協議。 「僅 KYC 是不夠的,」她警告說,每年損失 810 億美元歸因於與身分相關的詐欺。
對抗深度造假威脅
梅森艾倫,銷售主管解決了日益複雜的深度偽造技術,該技術已從原始的數位模仿發展到能夠破壞企業和政府系統的超現實操縱。 Reality Defender 是一家總部位於紐約的網路安全公司,採用多模型方法即時偵測合成媒體訊號,從而防範詐騙活動。在上個月 A 輪融資的擴展中,該公司的人工智慧檢測模型經過大量資料集的訓練,能夠在用戶驗證的關鍵時刻即時識別 Deepfake 偽造品。
「Deepfakes 是類似於防毒軟體的貓捉老鼠遊戲的下一代版本,」Allen 說道,並解釋了 Reality Defender 如何不斷適應新興的 Deepfake 技術。他強調了問題的嚴重程度,並提到到 2027 年,生成式人工智慧詐欺可能會成為每年價值 400 億美元的挑戰。
在金融環境中,即時視訊通話通常用於 KYC 流程和高價值交易。然而,詐欺者已經開始利用這些機制。例如,今年稍早的一次 Deepfake 詐騙涉及在 Zoom 即時通話中冒充一名財務長和兩名副手,導致 2,500 萬美元被盜。此類事件凸顯了現有身份驗證系統的漏洞。
這些風險不僅限於金融犯罪。 Deepfake 技術已被用來利用高階主管公開的語音和圖像數據,在詐騙和錯誤訊息活動中冒充執行長。甚至是備受矚目的人物,例如美國參議員本‧卡丁 (Ben Cardin) 成為深度造假的受害者,最近發生的一起事件涉及與據稱是烏克蘭官員的捏造互動。
Runway 和 ChatGPT 等生成式人工智慧平台發展迅速,使得區分真實媒體和合成媒體變得越來越困難。艾倫用影片生成技術進步的例子說明了這一點,並指出深度偽造品如何發展到與真實內容無法區分的地步。雖然這些工具提高了創造力和效率,但它們也使不良行為者能夠以最少的技術專業知識來擴大社會工程攻擊和金融詐欺。
號召性用語
演講者呼籲採取行動:重新評估數位身分驗證系統,以解決產生人工智慧暴露的漏洞。 Pidhirsky 強調驗證文件背後「活著的、在場的人」的重要性,而 Allen 則強調企業需要採取主動措施來識別和減輕深度造假風險。
「生成式人工智慧不僅是未來的問題,也是當前的現實,」Pidhirsky 警告。此網路研討會倡導加強技術提供者和利益相關者之間的合作,以確保數位互動免受日益複雜的威脅。
也推出了解決詐欺風險的工具。例如,推出了基於雲端的身份驗證服務,支援生物識別檢查,同時專注於從行為分析中得出的詐欺見解。此外,Proof 的驗證 Deepfake 防禦旨在透過確保用戶合法性來降低 Deepfake 等詐騙活動的風險。
Proof 的驗證平台已為 7,000 多家組織提供服務,包括金融機構、醫療保健提供者、小型企業和政府機構。
專家們也主張持續監測和動態風險評估作為關鍵策略。透過視訊、語音和行為模式即時驗證身分的技術可以幫助阻止攻擊,同時保持真正用戶的易用性。
隨著深度造假技術變得越來越容易取得,濫用的可能性可能會增加。
文章主題
||||||||||