ChatGPT 短暫地失去了理智。幾個小時以來,人工智慧產生了荒謬且不連貫的反應。面對目瞪口呆的用戶,聊天機器人甚至開始講述詩意的…甚至是色情的故事。 OpenAI 解釋說,一個錯誤擾亂了人工智慧組織語言的方式。
2024 年 2 月 20 日這個星期二,聊天GPT開始表現得非常奇怪。許多用戶意識到生成式人工智慧生成的句子毫無意義。在 Reddit 等社群網路上,有大量網路使用者的評價,他們對聊天機器人的反應感到非常驚訝。
ChatGPT 短暫關閉
正如螢幕截圖所示,人工智慧的評論通常完全無法理解。通常,ChatGPT 反應在之前正常開始陷入荒唐。對於 AI 用戶來說,所有對話“很快就變成了三個小時的大廢話”。當被問及計算機的定義時,語言模型回答如下:
「他的所作所為就像為國家創作了一幅精美的藝術畫布,一隻科學的老鼠,一幅悲傷的少數人的簡單畫作,最後,世界藝術之家,僅在遺骸中的一件作品中。像時間這樣的現實世界的發展是電腦作為複雜角色的深度»。
網路使用者一半好笑,一半擔心,將 ChatGPT 的反應與中風患者的反應進行了比較。在某些情況下,人工智慧已經開始混合語言或說出值得中世紀詩歌的句子或一個奇妙的故事。對某些人來說,人工智慧就像鬧鬼一樣。總之,那天這個模型完全沒用。
“在一個簡單的烹飪食譜上,ChatGPT 生成了一個正確的答案,它慢慢地變成了莎士比亞式和色情的東西,並以徹底的瘋狂結束””,Reddit 上的另一位網路使用者作證說。
OpenAI 揭示 ChatGPT 危機的原因
受到這些眾多證詞的提醒,OpenAI 很快就確認了故障的存在。該新創公司宣布正在調查問題的根源。開發商及時發現並糾正了這個問題。在發布的消息中兒子網站,OpenAI 揭示了“使用者體驗優化”是人工智慧神經崩潰的根源。顯然這次更新有“在模型處理語言的方式中引入了一個錯誤”。
正如 OpenAI 所解釋的,ChatGPT 與所有生成式 AI 一樣,“透過隨機抽樣單字產生答案”在基於機率。為了回答您的問題,聊天機器人僅依賴您初始查詢後最可能的單字序列。每個單字都由一個令牌表示,這是人工智慧模型處理的最小資料單元。令牌在人工智慧模型如何理解和生成文字方面發揮著至關重要的作用。 OpenAI 指定數字對應於標記,標記本身對應於單字、字元或單字的一部分(例如音節或子字)。
在這種情況下,一個錯誤中斷了“模型選擇這些數字的步驟”來制定你的答案。更新後,“模型選擇了稍微錯誤的數字,從而產生了毫無意義的單字序列”。這種糟糕的數字選擇導致了糟糕的字詞選擇,產生了毫無意義的句子。
ChatGPT 經歷的危機讓人回想起微軟基於 GPT 模型的聊天機器人 Bing Chat 的誕生。在與網路使用者的第一次互動中,該機器人以其不穩定的評論而引人注目,有時憤怒、仇恨或愛。 Bing甚至創造了大約十個邪惡人物,包括來勢洶洶的毒液,在微軟糾正這種情況之前。美國公司補充道一個開關,讓您限製或釋放創造力根據需要使用 Bing Chat。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇
來源 : 技術藝術