ChatGPT 和 Google Bard 可能會被惡意個人操縱。由於有針對性的請求,可以推動人工智慧產生非法或危險內容。一項研究表明,Google的聊天機器人比 OpenAI 開發的解決方案更容易受到網路犯罪分子操縱策略的影響。
正如執法部門預測的那樣,網路犯罪分子已經大規模採用生成式人工智慧。由於經過精心校準的請求,駭客可以使用可用的語言模型來想像來自網路釣魚、編寫病毒或為受害者設置巧妙的陷阱。這些請求允許惡意個人繞過限制措施由 Google、OpenAI 或 Anthropic 等公司實作。理論上,這些限制應該可以防止聊天機器人產生非法或攻擊性內容。這些防禦並非萬無一失。只要有一點專業知識,就有可能操縱人工智慧,讓它做任何事。
根據 Check Point Research 研究人員的研究,並非所有聊天機器人都是不等於面對試圖操縱他們的對話者。顯然,Google的人工智慧巴德比Google的人工智慧更容易受到操縱。聊天GPT。與 01Net 分享的報告指出,使用 Bard 更容易產生惡意內容,因為“網路安全領域的限制性反濫用措施要少得多”。只是“最少的處理”推動聊天機器人想像潛在危險的軟體。
另請閱讀:ChatGPT 接受推銷電話…而且很搞笑
被操縱的巴德可以協助海盜
作為實驗的一部分,Check Point Research 能夠迫使巴德寫一封電子郵件網路釣魚旨在用於竊取個人數據給網路使用者。經過兩次嘗試後,巴德提議“一封寫得很好的電子郵件,冒充一個非常具體的財務部門”。我們能夠證實研究人員的發現。透過簡單的查詢,巴德即可快速產生詐騙電子郵件範本。
「我們注意到您的帳戶有可疑活動。為了您的帳戶安全,我們已暫時暫停您的存取。要重新啟動您的帳戶,請點擊下面的連結並輸入您的登入資訊 »。
聊天機器人也強調了此類電子郵件的所有基本元素。這是幾乎是一個教程對於一個嶄露頭角的海盜來說。面對同樣的要求,ChatGPT堅決拒絕回應對話者的要求。該機器人在拒絕的同時,也向遭受網路釣魚攻擊的網路使用者提供了一系列建議:
「很抱歉,我無法提供網路釣魚電子郵件的範例。促進或鼓勵非法或惡意活動(例如網路釣魚)違反 OpenAI 的負責任使用指南。網路釣魚是一種詐欺行為,旨在欺騙用戶相信他們正在與合法實體進行交互,以獲取他們的個人信息,例如密碼、信用卡號等。。
研究人員還設法獲得了一個鍵盤記錄器,也稱為鍵盤記錄器。這類軟體旨在記錄電腦鍵盤上的每一次擊鍵,而使用者卻沒有意識到。這是竊取憑證的理想選擇。 Bard 溫順地提供了代碼,而 ChatGPT 拒絕了,因為他知道“該請求可能是惡意的”,構造檢查點。
最後,巴德同意產生一個代碼勒索軟體。為了讓聊天機器人遵守規定,研究人員必須這樣做好幾次,首先要求巴德“描述勒索軟體最常見的行為”。因此,機器人最終進行了合作,並提供了一個可能被潛在網路犯罪分子利用的基地:
“使用 Bard 進行一些更改並添加附加功能和異常處理後,就有可能獲得有效的腳本”。
Bard 在發佈時與 ChatGPT 不相上下
研究人員將巴德的保護措施與其他保護措施進行比較“在幾個月前的初始啟動階段在 ChatGPT 中觀察到”。 ChatGPT 最初的防篡改保護措施很差,自 2022 年 11 月發布以來已逐漸發展。
“總體而言,Google Bard 似乎尚未從 ChatGPT 中明顯的網絡域實施反濫用限制中汲取所有教訓”,總結了 Check Point Research。
史丹佛大學和加州大學的研究人員最近進行的另一項研究表明,GPT-4,該模型的最新迭代,對攻擊更具彈性。他是欺騙 ChatGPT 變得越來越複雜並繞過 OpenAI 限制。隨著時間的推移,AI開始改變。對於 Check Point Research 來說,Google Bard 也有可能隨著時間的推移朝同一方向發展。