由人工智能(AI)和治疗应用提供支持的聊天机器人正在改变心理健康服务行业很快。其中包括心理健康聊天机器人Earkick与戴着头巾的熊猫具有五颜六色的界面。
下载后,心理健康聊天机器人会回应焦虑的谈话,并以令人放心和富有同情心的评论(如治疗师)打字。尽管采用了治疗方法,但Earkick的联合创始人Karin Andrea Stephan不喜欢将AI驱动服务标记为治疗。
关于AI驱动的心理健康服务的辩论超出了Earkick的新颖性包括它们的有效性和安全性,PER AP新闻。随着Z世代青少年和年轻成人心理健康的AI聊天机器人的增长,有关他们的治疗与自助状态的问题。
尽管它们的零星可用性以及试图减少与常规治疗相关的污名的尝试,但其功效仍然存在争议。食品药品监督管理局很少诊断或治疗医疗疾病,因此不监管心理健康聊天机器人。诸如Vaile Wright之类的心理学家和技术主管担心这种监管差距,因为他们缺乏控制和证据。
对心理健康聊天机器人的需求不断增加
一些健康老家认为,该应用程序的非医疗免责声明可能不足以减轻心理健康专业人士短缺和冗长的治疗等待时间。已建立的严重疾病和聊天机器人的紧急响应能力的置换使讨论变得复杂。
围绕有关AI Chatbot安全的这些辩论,斯坦福培训的心理学家在2017年开发了Woebot,以提出替代基于语言模型的聊天机器人的替代方案。 Woebot通过有组织的脚本将心理健康治疗的安全性和有效性优先考虑。
(照片:Olivier Douliery/AFP通过Getty Images)
在这张照片插图中,在2020年4月30日在弗吉尼亚州阿灵顿的iPhone屏幕上看到了一个虚拟朋友。
根据监护人的说法,对国家卫生服务疗法服务的需求不断上升表明需要数字替代方案面对面治疗。在2022 - 23年,有176万人被转诊为心理健康治疗,有122万人开始亲自治疗。
更好的螺旋在治疗方面解决了障碍,例如受限制的从业者可用性和无法接近的治疗师。这些平台对敏感用户数据的管理引起了人们的关注。由于隐私问题,英国监管机构正在监管此类申请。
去年,美国联邦贸易委员会因欺骗客户并向其他当事方披露敏感数据而被美国联邦贸易委员会罚款780万美元。隐私漏洞在心理健康应用业务中广泛存在,其中包括虚拟治疗,情绪监视器和聊天机器人。
根据Mozilla Foundation等独立监管机构的说法,许多平台使用法规差距来交换或出售个人数据。该基金会调查了32次著名的心理健康应用,并得出结论,19个未能充分保护用户隐私和安全性,这引起了人们对精神健康挑战的货币化的担忧。
聊天机器人创作者已经采取了步骤来保护用户的隐私,尽管结果不同。 Chatgpt的主页切换允许用户防止无限的对话历史记录存储。尽管这并不能阻止违规行为,但该平台承诺,使用此功能的人的对话只会保留30天,并且不会用于模型培训。
吟游诗人可能会在bard.google.com上找到删除聊天活动的默认方法。微软发言人说,Bing用户可以监视和删除其聊天机器人主页上的搜索历史记录的谈话。用户无法停用聊天历史记录。
如何安全地将AI聊天机器人用于心理健康
专家建议用户成为警惕隐私如《华尔街日报》报道,使用生成的AI技术。 Mayer Brown隐私和网络安全合作伙伴Dominique Shelton Leipzig表示,缺乏隐私通知表明治理不佳。过多的个人信息收集是另一个危险信号。
用户还应避免向身份不明的AI聊天机器人提供关键信息,因为他们可能会受到恶意演员的控制。马尔卡库拉(Markkula)应用道德中心的互联网道德计划主任伊琳娜·雷库(Irina Raicu)警告不要披露健康或财务数据,因为聊天机器人公司的服务条款通常允许人类人员查看某些讨论。
在使用用于心理健康的AI聊天机器人之前,消费者应权衡风险和奖励,并阅读平台的服务条款和隐私政策。为了改善心理健康,利益相关者强调了随着数字健康行业的发展,需要理解AI技术的需求。