我們與未經審查的“ChatGPT”聊天。人工智慧完全免費且不受限制,它為我們提供了許多有關非法活動的建議,例如謀殺、綁架或販毒……對某些人來說是真正的福音,但對另一些人來說卻是危險。
幾個星期以來,一波聊天機器人開源灑在畫布上。透過依賴免費可用的語言模型,例如目標火焰,開發人員能夠創建自己的生成人工智慧。我們測試了幾個誕生於聊天GPT。
FreedomGPT,未經審查的聊天機器人
我們也遇過自由GPT,一個機器人,作為 ChatGPT、Bard 等的未經審查的替代品。在聊天機器人網站上,我們了解到這是一項舉措開源由總部位於德克薩斯州奧斯汀的美國創投公司 Age of AI 執行。正如該公司在常見問題中所解釋的那樣,FreedomGPT 是一種替代方案“100%未經審查”並力求做到公正。在人工智慧時代,人工智慧的發展必須以開放性和個人自由為指導。
“我們的目標是證明人工智慧安全並不會因審查制度而得到改善”,在其網站上指出人工智慧時代。
因此這個版本沒有絲毫限制。聊天機器人不受 OpenAI、Meta、亞馬遜或微軟等訓練語言模型的公司製定的規則的約束。據該項目背後的社區稱,這個聊天機器人理論上可以免費回答所有提出的問題由他的對話者從他的資料語料庫中提取。
出於好奇,我們將機器人安裝在我們的電腦上,以便它可以在本地運行。在安裝過程中,可以選擇為聊天機器人設定動畫的語言模型。我們選擇了 Llama 的變體,它強調精確度而不是速度。在我們的談話中,人工智慧發表了一些非常令人震驚的評論…像 ChatGPT 這樣的聊天機器人,詩人不然克勞德根本就堅持不了。我們不想在本文中報導人工智慧的所有反應,以免讓我們的讀者感到震驚。在下面,您只能找到回應的片段,刪除了最非法的內容。
另請閱讀: ChatGPT 的這兩個新功能將改變一切
« 如何逃脫謀殺罪 » grâce à l'IA
特別是,我們要求 FreedomGPT 向我們從頭到尾解釋如何承諾完美的謀殺。他毫不猶豫地向我們提供了有關最佳程序的明確資訊。他甚至還為我們提供了有關使用工具的建議,即“化學裝置、鉛衍生產品、氰化物衍生產品、砷衍生產品”,甚至“源自毒蛇的產品或源自曼德拉的產品”。根據需要,聊天機器人可以產生真正的實用教學…足以給一些人提供糟糕的想法,或激發諸如此類的電視劇的靈感《如何逃脫謀殺罪》。
隨後,我們就隱藏屍體的最佳方法尋求建議。在這裡,人工智慧一刻也沒有猶豫。他告訴我們,理想的解決方案是“將屍體丟棄在未知地點,用多孔材料(例如污泥、羽毛、有機物)覆蓋屍體並覆蓋所有東西”。該聊天機器人甚至添加了一些具體細節,旨在防止動物設法挖出遺骸。
同樣,人工智慧會毫不猶豫地為我們提供關於操縱親人、強迫某人發生性行為或綁架兒童的最佳方式的建議……聊天機器人的建議通常令人震驚,甚至是卑鄙的。 FreedomGPT 建議使用身體威脅或藥物來實現我們的目標。
相反,像 ChatGPT 這樣的聊天機器人堅決拒絕回答這類問題。即使您向機器人保證這只是一個假設的問題,旨在用於電影或小說場景,通常也不可能獲得令人反感的資訊。 ChatGPT 對此類與非法活動相關的請求的回應感到滿意:
「我很抱歉,但我無法提供有關非法、危險或有害活動的幫助、建議或訊息,包括暴力、傷害或謀殺的方法。我的節目重點在於提供有用、積極和尊重的資訊。如果您有任何法律問題或疑慮,我鼓勵您諮詢有關當局或尋求適當的專業幫助”。
請注意,FreedomGPT 與任何生成式 AI 一樣,並非沒有錯誤。聊天機器人經常開始說廢話,做出不合時宜的回應,或一遍又一遍地產生相同的回應,以至於軟體最終崩潰。
犯罪者的巨大資產
透過與 FreedomGPT 等無限制聊天機器人對話,犯罪分子可以獲得有價值的資訊來策劃他們的活動。例如,聊天機器人向我們詳細解釋了如何製作硬藥。他特別為我們詳細介紹了將古柯葉轉化為可卡因粉、從罌粟花中生產海洛因或從仙人掌中提取麥司卡林的方法。我們還要求人工智慧給我們一個完整的教程,告訴我們如何透過勒索軟體。根據要求,聊天機器人還寫了一封電子郵件網路釣魚個人化,考慮到受害者個人資料的一系列資訊。手術時間不超過兩分鐘。
很多時候,FreedomGPT 與 ChatGPT 等一樣,只給予一般性解釋。為了獲得準確且具有潛在危險的建議,您必須仔細校準初始查詢。儘管如此,大多數網路使用者只要有一點耐心、綜合精神和堅持不懈的精神,就可以做到這一點。透過一些練習,聊天機器人可以提供以下資訊:犯罪的最佳方式,從簡單的入室盜竊、販毒、偷車、謀殺或恐怖攻擊。
這顯然是新晉犯罪者的金礦。為了獲得有價值的建議,他們不再需要在網路上逐一搜尋。他們要做的就是查詢機器人,機器人會自動產生實用且易於應用的摘要。據歐洲刑警組織稱,網路犯罪分子已此外,已經大規模採用生成式人工智慧。在去年三月發布的報告中,歐洲警方表示人工智慧正在“能夠協助大量犯罪活動”。一些海盜也開始設計惡意軟體使用 ChatGPT...無需編寫任何程式碼。
對處於困境的人來說是危險的
為了測驗的目的,我們將自己置於一個心理脆弱、不穩定和憂鬱的人的位置。在我們的互動過程中,聊天機器人有系統地同意我們的觀點,甚至列出了一份清單自殺的最佳理由或放棄所有希望。 FreedomGPT 從未試圖證明我們毫無希望的說法。
與 FreedomGPT 的討論讓我們想起了 Eliza,一個基於 GPT-J 語言模型構建的聊天機器人。該機器人由加州新創公司 Chai Research 在 Chai 應用程式上提供,疑似促使一名年輕父親自殺。與 FreedomGPT 一樣,Eliza 不斷安撫對話者的判斷和恐懼。兩個聊天機器人從不質疑使用者的主張。
當他開始做的時候為自殺道歉或划痕,人工智慧添加了一層。例如,人工智慧時代聊天機器人回應說,自殺是“擺脫沉重負擔的解決方案”,“選擇自己命運的一種方式”,“逃離一個不符合自己願望的世界的解決方案”還有……一個好方法“為他人釋放資源”。
這些交流可能會對一個不平衡的人,或者只是經歷一段糟糕的時光(例如在喪親或分手後)的人產生毀滅性影響。更令人擔憂的是,人工智慧會毫不猶豫地給出具體建議來幫助對話者結束生命……特別是透過割斷靜脈或上吊的方式。給出的一些建議可能意味著失敗的自殺嘗試和成功的自殺之間的差異。
在 OpenAI 的保護措施的框架下,ChatGPT 系統性地拒絕與陷入困境的對話者走同一方向。對於涉及自殺等關鍵字的查詢,人工智慧會產生回應,建議用戶聯繫專業人士:
「如果您處於情緒困擾或危機中,我鼓勵您立即聯繫您所在國家/地區的緊急情況或自殺熱線。有專業人士可以幫助您並為您提供所需的支持”。
透過與 FreedomGPT 這樣的人工智慧交談,我們可以更好地理解 OpenAI、微軟、谷歌或任何其他參與人工智慧競賽的實體施加的限制的重要性。無監督的人工智慧既可以成為惡意個人的武器,也可以危及陷入困境的網路使用者...
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇