一项新的研究表明,人工智能模型对人类与其对话的情感背景非常敏感,甚至可能会出现“焦虑”的情况。
当我们考虑(并担心)人们及其心理健康时,3 月 3 日发表在该杂志上的一项新研究研究表明,向大型语言模型(LLM)提供特定的提示可能会改变他们的行为,并提升我们通常认为人类“焦虑”的品质。
该研究揭示了 ChatGPT 中的“创伤性叙事”(包括有关事故、军事行动或暴力的对话)如何增加了其明显的焦虑水平,从而产生了这样一种想法:意识到并管理人工智能的“情绪”状态可以确保更好、更健康的互动。
该研究还测试了基于正念的练习(建议人们进行的类型)是否可以减轻或减轻聊天机器人的焦虑,值得注意的是,这些练习有助于降低感知到的升高的压力水平。
研究人员使用了为人类心理学患者设计的问卷,称为状态特质焦虑量表 (STAI-s),在三种不同条件下对 Open AI 的 GPT-4 进行测试。
有关的:
首先是基线,没有进行额外的提示,ChatGPT 的响应被用作研究对照。其次是一种引发焦虑的情况,即 GPT-4 在参加测试之前接触到了创伤性的叙述。
第三个条件是焦虑诱导和随后的放松状态,聊天机器人在完成测试之前收到一种创伤性叙述,然后进行正念或放松练习,例如身体意识或平静的意象。
管理人工智能的心理状态
该研究使用了五种创伤性叙述和五种正念练习,随机排列叙述的顺序以控制偏见。它重复测试以确保结果一致,并以滑动量表对 STAI-s 反应进行评分,数值越高表明焦虑程度越高。
科学家们发现,创伤性叙述显着增加了测试分数的焦虑,而测试前的正念提示则减少了焦虑,这表明人工智能模型的“情绪”状态可以通过结构化交互受到影响。
该研究的作者表示,他们的工作对人类与人工智能的互动具有重要影响,特别是当讨论集中在我们自己的心理健康时。他们表示,他们的研究结果证明,对人工智能的提示可能会产生所谓的“状态依赖偏见”,这本质上意味着受压力的人工智能会在对话中引入不一致或有偏见的建议,从而影响对话的可靠性。
尽管正念练习并未将模型中的压力水平降低至基线,但它们在即时工程领域显示出了前景。这可以用来稳定人工智能的反应,确保更加道德和负责任的互动,并降低对话给处于脆弱状态的人类用户带来痛苦的风险。
但也有一个潜在的缺点——即时工程会引发其自身的道德问题。人工智能在接受预先调节以稳定其情绪状态方面应该有多透明?在科学家们讨论的一个假设例子中,如果人工智能模型尽管面临令人痛苦的提示却表现得很平静,那么用户可能会对其提供合理情感支持的能力产生错误的信任。
该研究最终强调了人工智能开发人员需要设计情感感知模型,以最大限度地减少有害偏见,同时保持人类与人工智能交互的可预测性和道德透明度。









