在2021年的國際學習表現會議(ICLR)中,來自馬里蘭州大學的熟練研究人員團隊展示了一種攻擊技術,該技術可能會減慢精心的深度學習模型,以進行快速和敏感的操作。
襲擊的標題為“深毛”。它旨在針對自適應和深度神經網絡 - 多種深度學習體系結構,特別是為了減少計算,從而導致了更快的處理功能。
急於人工智能係統的風險
全世界對深度學習和機器學習過去幾年的安全。隨之而來的是與黑客和捍衛廣泛類型的神經網絡有關的多個論文,技術和創新。
但是,什麼使深毯子更有趣呢?
根據下一個網絡,負責DeepSloth的研究人員必須在他們在2019年演講前兩年創建的技術中提出錯誤。
DeepSloth似乎需要的是,機器學習社區會發現以前和正在進行的工作經常進行的多個意外錯誤。
但是,多家研究人員,開發人員和零售公司通過競賽在眾多PC和移動應用程序中提供深入學習而互相競爭。
他們的人工智能係統版本的匆忙會在將來引起關鍵風險。
例如,在創造了兩年之後,直到最近才發現深毯。
這個問題表明,匆忙的人工智能係統可能會有進一步的問題,製造商和研究人員在生產時未註意到。
如果許多應用程序收到錯誤的AI系統,則越來越多的公司和用戶會因為面臨的挑戰而感到困惑。即使這樣,也可能會發生無法彌補的損害賠償,例如數據洩漏和身份曝光。
人工智能的有害影響
Tudor Dumitras是網絡安全專家,馬里蘭州網絡安全中心的成員,他在下一個網絡中指出,他想到可能利用了深刺網絡的有害方式。
與Yigitan Kaya一起,博士學位馬里蘭大學和他的同事的學生開始懷疑是否有任何對手會導致該系統陷入過度思考的狀態。
綜上所述,他們想知道能源節省以及從SDN等較早出口模型獲得的潛伏期是否足夠耐用,以防止攻擊。他們將其命名為“ Deepsloth攻擊”。
類似於對抗性攻擊,深毯主要依賴於精心製作的輸入,這些輸入可以操縱機器學習系統的行為。但是,與其他迫使目標模型提供不正確預測的攻擊不同,深毯子專注於恐嚇計算。
DeepSloth Attack能夠減慢多個淺層深度網絡,以防止它們創建早期出口並迫使它們通過所有層的整個計算進行推動。
但是,下一個網絡報告說,攻擊可能會引起更為關鍵的威脅。
杜米特拉斯(Dumitras)表示,深墊攻擊可以迫使深度學習模型將所有推論發送到雲。此事件可能導致能源和服務器資源浪費,以及其他破壞性影響。
本文由技術時報擁有
由弗蘭·桑德斯(Fran Sanders)撰寫