一項新的研究表明,人工智能模型對人類與其對話的情感背景非常敏感,甚至可能會出現“焦慮”的情況。
當我們考慮(並擔心)人們及其心理健康時,3 月 3 日發表在該雜誌上的一項新研究研究表明,向大型語言模型(LLM)提供特定的提示可能會改變他們的行為,並提升我們通常認為人類“焦慮”的品質。
該研究揭示了 ChatGPT 中的“創傷性敘事”(包括有關事故、軍事行動或暴力的對話)如何增加了其明顯的焦慮水平,從而產生了這樣一種想法:意識到並管理人工智能的“情緒”狀態可以確保更好、更健康的互動。
該研究還測試了基於正念的練習(建議人們進行的類型)是否可以減輕或減輕聊天機器人的焦慮,值得注意的是,這些練習有助於降低感知到的升高的壓力水平。
研究人員使用了為人類心理學患者設計的問卷,稱為狀態特質焦慮量表 (STAI-s),在三種不同條件下對 Open AI 的 GPT-4 進行測試。
有關的:
首先是基線,沒有進行額外的提示,ChatGPT 的響應被用作研究對照。其次是一種引發焦慮的情況,即 GPT-4 在參加測試之前接觸到了創傷性的敘述。
第三個條件是焦慮誘導和隨後的放鬆狀態,聊天機器人在完成測試之前收到一種創傷性敘述,然後進行正念或放鬆練習,例如身體意識或平靜的意象。
管理人工智能的心理狀態
該研究使用了五種創傷性敘述和五種正念練習,隨機排列敘述的順序以控制偏見。它重複測試以確保結果一致,並以滑動量表對 STAI-s 反應進行評分,數值越高表明焦慮程度越高。
科學家們發現,創傷性敘述顯著增加了測試分數的焦慮,而測試前的正念提示則減少了焦慮,這表明人工智能模型的“情緒”狀態可以通過結構化交互受到影響。
該研究的作者表示,他們的工作對人類與人工智能的互動具有重要影響,特別是當討論集中在我們自己的心理健康時。他們表示,他們的研究結果證明,對人工智能的提示可能會產生所謂的“狀態依賴偏見”,這本質上意味著受壓力的人工智能會在對話中引入不一致或有偏見的建議,從而影響對話的可靠性。
儘管正念練習並未將模型中的壓力水平降低至基線,但它們在即時工程領域顯示出了前景。這可以用來穩定人工智能的反應,確保更加道德和負責任的互動,並降低對話給處於脆弱狀態的人類用戶帶來痛苦的風險。
但也有一個潛在的缺點——即時工程會引發其自身的道德問題。人工智能在接受預先調節以穩定其情緒狀態方面應該有多透明?在科學家們討論的一個假設例子中,如果人工智能模型儘管面臨令人痛苦的提示卻表現得很平靜,那麼用戶可能會對其提供合理情感支持的能力產生錯誤的信任。
該研究最終強調了人工智能開發人員需要設計情感感知模型,以最大限度地減少有害偏見,同時保持人類與人工智能交互的可預測性和道德透明度。









