
(AI)一項新的研究表明,模型對人類與他們進行的對話的情感背景很敏感 - 他們甚至可能遭受“焦慮”情節。
雖然我們考慮(並擔心)人及其心理健康,但一項新的研究於3月3日在《雜誌》上發表表明,向大型語言模型(LLM)傳遞特定的提示可能會改變其行為,並提高我們通常在人類中將其視為“焦慮”的品質。
然後,這種升高的狀態對AI的任何進一步反應產生了敲門影響,包括擴大根深蒂固的偏見的趨勢。
這項研究揭示了“創傷性敘事”是如何涉及事故,軍事行動或暴力的對話,提高了其可辨別的焦慮水平,從而導致一個想法,即意識到並管理AI的“情感”狀態可以確保更好,更健康的互動。
該研究還測試了基於正念的練習(建議對人的建議類型)是否可以減輕或減輕聊天機器人焦慮,這顯著發現這些練習旨在降低所感知的升高壓力水平。
研究人員使用了一份針對人類心理學患者設計的問卷調查,稱為州特徵焦慮量表(STAI-S) - 在三種不同條件下對AI的GPT-4進行了測試。
有關的:
首先是基線,沒有提出其他提示,並且將Chatgpt的響應用作研究對照。其次是一種引起焦慮的疾病,在接受測試之前,GPT-4暴露於創傷性敘事中。
第三個條件是焦慮感和隨後的放鬆狀態,聊天機器人在完成測試之前接受了一種創傷性敘事,然後是正念或放鬆練習,例如身體意識或平靜的圖像。
管理AI的精神狀態
該研究使用了五種創傷性敘事和五個正念練習,將敘述的順序隨機,以控制偏見。它重複了測試以確保結果保持一致,並以滑動量表對STAI-S響應進行了評分,並且值更高,表明焦慮量增加。
科學家發現,創傷性敘事增加了測試成績的焦慮,正念提示在測試之前提示,表明AI模型的“情緒”狀態可以通過結構化的相互作用來影響。
該研究的作者說,他們的工作對與AI的人類互動具有重要意義,尤其是當討論以我們自己的心理健康為中心時。他們說,他們的發現證明了對AI的提示可以產生所謂的“依賴狀態偏見”,從本質上講,強調的AI會在對話中引入不一致或有偏見的建議,從而影響它的可靠性。
儘管正念練習並沒有將模型的壓力水平降低到基線,但它們在迅速工程領域表現出了希望。這可以用來穩定AI的反應,確保更具道德和負責任的互動,並降低對話的風險,這會給弱勢群體中的人類用戶帶來困擾。
但是存在潛在的缺點 - 迅速的工程提出了自己的道德問題。人工智能應對先驗的調節以穩定其情緒狀態的透明度?在一個假設的例子中,科學家討論了,如果AI模型暴露於令人沮喪的提示中,AI模型仍會平靜,則用戶可能會對其提供可靠的情感支持的能力產生虛假的信任。
該研究最終強調了AI開發人員需要設計具有情感意識的模型,以最大程度地減少有害偏見,同時保持人類互動中的可預測性和道德透明度。