當今機器學習的影響很明顯,其廣泛應用。例如,由於公司希望易於使用該技術來節省時間和資源,因此已尋求面部識別系統以方便數據。
但是,其他人依靠依靠gan或生成對抗網絡的保護隱私工具。 Gans利用神經網絡,可以創建視頻,圖像,語音,文本等材料。它們是否足夠可靠以保留私人數據?
研究講述了有關保護隱私的機器學習工具的內容

在一份報告中科學日報,NYU Tandon工程學院的一支團隊進行的研究發現,結果“不是很”的反應。
位於美國學院的主要研究人員Siddharth Garg表示,他們正在發現是否可以通過圖像檢索私人數據,因為它們是由Gans“消毒”的,這是機器學習歧視者的一個例子。
此外,專門從事計算機和電氣工程的副教授還補充說,應首先通過一系列經驗測試篩選數據。
但是,該研究的其他作者本傑明·譚(Benjamin Tan)和康(Kang Liu)表示,私人數據可以通過隱私篩選,因為PP(隱私保護性)甘斯可以推翻它們。這意味著可以從消毒圖像中獲取上述“秘密”數據。
隱私工具可以做的一系列活動是巨大的。它可以從相機中帶出一些數據,這些數據告訴車輛的位置。
它還可以從圖像中擺脫條形碼,並通過他的筆跡不清楚該人的身份。的確,這些基於GAN的工具是複雜性構建的,這就是為什麼它們外包給供應商的原因。
根據Garg的說法,可以通過使用帶有PP-GAN的第三方工具來操縱圖像。他補充說,當這些系統對圖像和其他數據進行消毒時,“關鍵信息”仍然存在。
Garg繼續說,即使隱私檢查允許對抗性PP-GAN,仍然有秘密數據可以將私有圖像恢復為原始形式。
研究大綱
研究人員做了一個考慮隱私檢查的方法大綱。他們制定了一種方案,以檢查有關PP-GAN關於其隱私的經驗測試是否會被破壞。
第一種情況涉及與PP-GAN有關的全面分析。研究人員進行了測試,以找出隱私檢查是否不足以識別何時敏感信息洩漏。
第二個是通過新穎的隱形方法完成的,研究人員通過修改PP-GAN從消毒圖像中隱藏了用戶ID。
最後一個是測試,以確定PP-GAN是否可以通過消毒圖像完全恢復私人信息,因為它們已經通過了隱私檢查。
研究的論點和結論
研究人員提出了一個論點,即基於培訓預算和歧視者的學習能力,基於經驗指標,隱私檢查對私人安全的不足。
Garg說:“從實際的角度來看,我們的結果聽起來很謹慎,以防使用數據消毒工具,尤其是由第三方設計的PP-GAN。”
GARG結束時,結果表明,深度學習的隱私檢查在研究中有一些失誤。當使用不受信任的第三方來源的PP-GAN工具時,它們也會承受風險。
要訪問題為“顛覆隱私保護gan:隱藏在消毒圖像中的秘密”的完整研究,請訪問此網站。
本文歸Tech Times擁有。
由Joen Coronel撰寫