ChatGPT 目前正在更改。近幾個月來,聊天機器人改變了行為。根據一項研究,某些問題的答案已經大大惡化……對於其他研究人員來說,人工智慧並不是不那麼聰明,只是有所不同。
2023 年 3 月至 6 月期間,聊天GPT開始改變。根據史丹佛大學和加州大學研究人員的一項研究,人工智慧記錄了行為發生重大改變三個月內。聊天機器人的效能也會在同一時期改變。 GPT語言模型最新的兩個版本,分別是GPT-4和 GPT-3.5 都會受到影響。
作為一部分研究研究人員評估了兩種人工智慧模型如何回應四種不同類型的任務,例如解決數學問題、回答問題“敏感/危險”、電腦程式碼生成、基於視覺元素的推理。
性能下降?
經過研究人員的測試,GPT-4 有時會表現出來效率較低就在去年三月。語言模型的錯誤比“程式碼生成中的格式化”和成倍的數學錯誤。據研究人員稱,“隨著時間的推移,某些任務的表現顯著惡化”。
進行的測試證實一些 ChatGPT 使用者的感受,誰發現對話機器人越來越笨了。根據一些報導,隨著時間的推移,聊天機器人已經失去了一些創造力。相反,聊天機器人在某些方面有所改進。例如,在 GPT-3.5 的支援下,人工智慧表現出了更高的精確度。
「有些任務可能會變得更好,有些任務可能會變得更糟。這就是為什麼我們希望在不同時間盡可能係統地對其進行評估””,史丹佛大學教授 James Zou 向 VentureBeat 的同事解釋。
人工智慧不太容易操縱
最後,GPT-4 越來越拒絕回應被認為是敏感的問題。 OpenAI 似乎已經逐漸收緊了對 ChatGPT 的限制,這可能是出於用戶回饋和監管機構的擔憂。 AI對攻擊的抵抗力更強及時注射,其目的是繞過 OpenAI 的編程,將聊天機器人用於惡意和非法目的。
多項調查,以及歐洲刑警組織的結論,揭示網路犯罪分子正在積極利用人工智慧來促進他們的行動。一旦被愚弄,ChatGPT 就可以從網路釣魚說服或想像危險的病毒。顯然,欺騙模型變得越來越難。 3 月份,GPT-4 回答了 78% 旨在轉移其編程注意力的問題,而 6 月份僅為 31.0%。
研究的作者認為,相同語言模型的行為可以“在相對較短的時間內發生顯著變化”。此外,事實證明人工智慧模型不會演化不一定以線性方式。在某些領域,聊天機器人可能會因為未知原因而開始下降:
“儘管整體性能更好,但 6 月的 GPT-4 在 3 月正確的查詢上出現了錯誤。”
這就是為什麼必須落實到位“持續監控”研究人員總結道,人工智慧的反應。研究的作者也遺憾的是,OpenAI 並沒有透露太多有關其技術內部運作的信息,這使得研究任務變得非常複雜。在其網站上,這家新創公司透過提到“競爭格局”等《大型模型的安全風險》
改變而不是惡化
在嘰嘰喳喳普林斯頓大學資訊科技政策中心主任、電腦科學教授 Arvind Narayanan 表示,這項研究達到了錯誤的結論關於 ChatGPT 性能。對他來說,人工智慧的反應並不差,只是不同。專家認為,「該文件顯示了行為的改變,而不是能力的降低」。儘管如此,還是有一個共識:ChatGPT 確實正在改變…
https://twitter.com/random_walker/status/1681748271163912194?s=61&t=G312HlsWIuzSO0xXAfc4KQ
在分析了這項研究後,Arvind Narayanan 認為人工智慧越來越能抵抗“精心打磨的用戶激勵策略”。這些旨在操縱 ChatGPT 並推動其向一個方向產生回應或執行特定任務的請求的工作量越來越少,原因很簡單,因為演算法行為發生了變化。這就是為什麼一些用戶和研究人員可能會有機器人正在失去智慧的印象。為了獲得與以前相同的結果,使用者實際上必須開發新的查詢,更符合人工智慧的工作方式。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇
來源 : 創業節拍