OpenAI 認識到網路犯罪集團在其行動中使用 ChatGPT。自今年年初以來,已記錄了 20 多起部分基於聊天機器人的網路攻擊。另一方面,駭客並沒有真正徹底改變這個行業…
生成式人工智慧的興起有利於網路犯罪分子。自從到來以來聊天GPT許多駭客和詐騙者已轉向人工智慧來促進他們的活動。雖然一些犯罪分子使用人工智慧以他們可能不會說的語言編寫令人信服的網路釣魚訊息,但其他惡意個人則使用語言模型來編寫惡意軟體。
人工智慧和網路犯罪
幾個月前,HP Wolf Security 研究人員發現了利用人工智慧進行最佳化的網路攻擊,目標是居住在法國的網路使用者。根據研究人員的調查,駭客委託人工智慧編寫一系列惡意腳本。
近幾個月來,人工智慧的繁榮讓勒索軟體集團受益匪淺。借助人工智慧工具豐富,旨在敲詐勒索的病毒變得越來越危險,並且越來越容易在目標系統上部署。
“超過20個欺騙性操作和網路”2024年
OpenAI 首次正式確認駭客利用 ChatGPT 策劃網路攻擊。這家美國新創公司在 2024 年 10 月 9 日發表的部落格文章中,現估值1570億, 表示已經識別出“超過20個欺騙性操作和網路”利用今年年初以來 ChatGPT 提供的可能性。
OpenAI 報告特別描述了 SweetSpecter 如何一夥中國間諜,在其操作中使用了 ChatGPT。該團伙的目標之一就是 OpenAI 及其員工。該組織首先向 OpenAI 員工的個人電子郵件地址發送虛假支援請求。這些虛假請求包含惡意附件,其中包含名為 SugarGh0st RAT 的病毒。一旦部署到受害者的電腦上,它就完全控制了。
中國網路犯罪分子使用 ChatGPTfor檢查安全漏洞或 OpenAI 及其其他受害者電腦系統中的可利用程式碼。駭客主要詢問人工智慧的關鍵漏洞,同時也隔離惡意程式碼中的錯誤。
該聊天機器人也被 CyberAv3ngers 廣泛使用,該組織隸屬於伊朗軍隊的分支伊斯蘭革命衛隊。伊朗駭客使用合法的 ChatGPT 帳戶。他們要求聊天機器人提供 某些工業系統中的電子設備使用的預設標識符,用於建立自訂腳本並混淆其工具的程式碼。此過程包括使程式碼變得更加複雜,從而為調查人員設置障礙。
測試過,但是沒有“突破”對於海盜
OpenAI 承認,駭客“繼續發展並試驗我們的模型”,但新創公司沒有“有證據表明,這使得他們創造全新惡意軟體的能力取得了重大突破”。 OpenAI 表示,顯然,ChatGPT 並未徹底改變駭客產生新惡意軟體的方式。
在意識到駭客的活動後,OpenAI 顯然想盡一切辦法“阻止濫用我們的模型達到有害目的的企圖”。使用的帳戶已被禁止。 Sam Altman 的公司也表示,其“情報、調查、安保和安全團隊”將繼續竭盡全力“預測惡意行為者如何利用先進模型達到危險目的”。
因此,駭客採用了生成式人工智慧,但他們的對手、安全研究人員也採用了生成式人工智慧。幾家公司已經開始使用生成式人工智慧來保護網路使用者。情況是這樣的麥克菲,誰開發的一項利用人工智慧來保護網路使用者的技術防範網路釣魚郵件,或比特衛士,誰開發的惡意訊息和連結檢測器由人工智慧提供支援。
來源 : 開放人工智慧