英國政府發表的一項新的案例研究並未削弱單詞或數字:“人工智能(AI)產生的深擊的興起很快 - 預計將在2025年共享八百萬,而2023年的500,000次。透明
然而,欺詐是一種可能爆炸的犯罪,同時仍然相對沒有引起注意。借助Deepfake欺詐和其他偷偷摸摸的方式來顛覆現實,這就是重點。生成的AI迅速而悄悄地訪問了精緻的工具比以往任何時候都便宜,更容易。
因此,AI變得越來越必要。從那些在昂貴的深層視頻注射欺詐範圍內走錯的人,到那些旨在防止它的使命的人,技術啟用欺詐者與預防欺詐防禦的對抗已經得到加熱,並且一天變得更加複雜。
DeepFake欺詐對英國的“緊急國家優先事項”
根據英國案例研究,“尋找快速檢測和減輕這種不斷增長的威脅的方法是越來越緊迫的優先事項。”政府的加速能力環境(ACE)將一線政府和執法與創新技術聯繫起來,是“這項旨在找到實用解決方案的核心核心,可以說是在線時代最大的挑戰。”
王牌參與了DeepFake檢測挑戰,與內政部,科學,創新技術部以及艾倫·圖靈研究所合作。設計為用於尖端實用解決方案的研討會,挑戰邀請了學術界,工業和政府的代表合作,對五個挑戰聲明的回應,推動了當前的深層檢測能力的界限。
在八週的過程中,參與者使用了一個自定義平台,該平台擁有約200萬資產的真實資產和進行培訓。在17個結果中,其中一些被強調為具有強大的概念證明和潛在的操作價值,現在正在基準測試和用戶試驗中;其中包括來自弗雷澤 - 納什(Frazer-Nash),牛津波(Oxford Wave),南安普敦大學(University of Southampton)和納姆(Naimuri)的提交。
挑戰產生了幾個關鍵的收穫。首先,對於最有效,最有效的深層檢測,使用精選至關重要這反映了現實世界的用例。其次,協作和共享數據對於更大的努力至關重要。
ACE與CSAM委員會的Evita合作
遵循DeepFake檢測挑戰,ACE已為國防科學和技術實驗室進行了一個項目(DSTL)和首席科學顧問辦公室(氧)。
ACE的作用是就如何“成熟”一種稱為Evita的工具提出建議 - 視頻,文本和。根據案例研究,“ ACE利用DeepFake檢測挑戰中利用其專業知識來創建可重複使用的“黃金標準”數據集。該數據集旨在有效測試檢測模型,包括針對兒童性虐待材料(CSAM)的檢測模型。”
最終結果是用於深泡檢測的可重複測試和評估方法。
ACE還與公司藍圖,攝像頭取證和TRMG合作,涉及深層檢測策略。
“該組織說:“既是日益嚴重的威脅,又是不斷發展的威脅,但是彌合模型和現實之間的差距對於以大規模和速度來應對它們至關重要。 ACE,其客戶和供應商仍在激光側重於從理論到實踐的這種演變。”
iproov:為防止對自拍生物識別技術的攻擊,請使用LIVISE檢測
在接受自己的Deepfake挑戰版本的公司中,Iproov和Paravision最近發布了研究特定挑戰和用例的內容。
最近的網絡研討會旨在“超越自拍照”的目標 - 根據英國公司的說法,該公司雖然作為生物特徵驗證的工具流行,但容易受到復雜的生成AI驅動威脅的影響。面部掉期,,注射攻擊和其他技術使劫持依賴靜態面部圖像的身份交易變得更加容易。
在iproov的網絡研討會,首席產品官彼得·詹姆斯(Peter James)討論了組織如何防止使用Livices檢測到AI DeepFake威脅的技術。
網絡研討會分解有效的需要在不斷發展的AI威脅的背景下進行系統。詹姆斯說,高質量的捕獲,多層分析和有效威脅監控的快速更新是關鍵要素。系統必須可以訪問,沒有偏見和準確。通過全球標準機構的認證可以幫助確保合規,包容性和安全性。
Paravision:LIVISE檢測,深泡檢測單獨的工具
對Deepfake話語的最新貢獻是白皮書概述了其深層檢測方法。這是在深泡檢測和LIVISETICT之間描述的重要一點。
它說,Paravisions Livisions產品“檢查是否存在諸如面具或高分辨率顯示器的物理表現攻擊”,而其DeepFake檢測產品”通過幫助識別和減輕合成圖像或日益增長的合成圖像威脅,從而增加了必不可少的保護層。”
因此,應將其檢測和深層檢測視為互補技術。 “這些技術共同實現了一項全面的防禦策略,確保了每個經過驗證的身份既是現場又真實的。這種雙層方法不僅是預防欺詐方面的重大飛躍,而且是建立信任的關鍵一步。”
白皮書還貫穿了深層類型和檢測用例的類型,以及Paravision的技術過程,系統體系結構,準確性基準測試和使用道德的數據集。
從2500萬美元的香港Deepfake CEO案中學習
迄今為止最臭名昭著的深層案例也許是香港,其中一名Arup員工被公司高管的Deepfake Video Avatars欺騙,將2500萬美元轉移到外國銀行帳戶中。
在面試在世界經濟論壇上,阿魯普的首席信息官羅布·格雷格(Rob Greig)說,香港襲擊“甚至不是最純粹的網絡攻擊。我們的系統都沒有受到妥協,也沒有影響數據。”格里格將其歸類為“技術增強的社會工程”。
他說:“人們被欺騙,認為他們正在進行真正的交易,從而導致金錢離開組織。”他指出,“這種情況的發生頻率比很多人意識到。”
具體而言,它不是冰山一角,而是刺刀的尖端安裝在衝鋒槍上。 “如果格里格說,是子彈,我們所有人都會在地板上爬行,因為它們會從窗戶駛過,每秒鐘數千發。”
更令人擔憂的是它們可以產生的便利性;在香港襲擊之後,格里格發現他能夠創建一個免費可用的技術在大約45分鐘內)。
格里格(Grieg)說,防禦深層攻擊的有效策略必須基於對技術能力的認識和地位:“誰可以訪問什麼何時以及何時?您的組織周圍有哪些數據?誰值得信賴,什麼是不信任的?組織內部正在發生什麼樣的錯誤活動?”
Deepfake欺詐促使國際威脅促使全球反應
深蛋,las,無處不在:新研究從欺詐預防公司信託賽中表明,在2024年,使用基於AI的Deepfakes和Deepaudio的使用增加了118%,而美國90%的公司經歷了網絡欺詐。
Baptiste Collot,首席執行官Trustpair該研究說:“該研究表明,網絡欺詐是不可避免的現實。儘管許多高管對組織識別複雜欺詐者的能力表達了信心,但幾乎相同的百分比表示,他們的組織經歷了成功的攻擊,這表明信心放錯了位置。這不斷變化。公司需要保持警惕,不能負擔自己的防禦能力。
執法機構也是如此。韓國的警方正在對Deepfake檢測系統投資91億韓元(620萬美元),以回應AI輔助Deepfake欺詐的激增。 yonhap報告該項目使用多模式算法並分析噪聲和聲音頻率來檢測DeepFake視頻和AI生成的聲音,該項目計劃在2027年12月之前完成。
根據報告,在2024年的前10個月中,警方逮捕了573名嫌疑人,涉及1,094次深層性犯罪,這也涉及青少年和未成年人。
文章主題
|||||||