日前,罗布·莫里斯 (Rob Morris),Koko 创始人一个旨在帮助患有心理健康问题的人的在线平台,公布了一个令人惊讶的消息。经理透露曾使用过聊天GPT,OpenAI的人工智能,提供“为约 4,000 人提供心理健康支持”。
我们使用 GPT-3 为大约 4,000 人提供了心理健康支持。这是发生的事情👇
— 罗布·莫里斯 (@RobertRMorris)2023 年 1 月 6 日
Koko 设计于 2015 年,允许普通用户提供心理援助患有抑郁症的人。这些志愿者通过 Discord 服务器 Koko Cares 使用基本的聊天机器人进行连接。在回答了一系列基本问题后,有困难的人可以与志愿者交谈。然后,这将免费提供量身定制的支持。
L'empathy“怪异”deChatGPT
作为实验的一部分,Koko 向志愿者提供了使用ChatGPT 生成的响应与用户沟通。人工智能的使用纯粹是可选的。如果 ChatGPT 的回应被认为不合适,志愿者就会接手。在测试中,聊天机器人被直接集成到初创公司的 Discord 服务器中。
“我们采用了‘副驾驶’的方式,由人类根据需要监督人工智能。我们对大约 30,000 条消息执行了此操作 »,指定罗布·莫里斯。
最初,实验给出了令人鼓舞的结果。 Rob Morris 表示,ChatGPT 写的信息比志愿者自己写的文字更受赞赏:
“由人工智能编写(并由人类监督)的消息的评分明显高于仅由人类编写的消息”。
锦上添花的是,将 ChatGPT 集成到 Koko 的 Discord 中使将响应时间缩短一半,这在最紧急的情况下至关重要。不幸的是,结果很快就完全改变了“人们了解到这些消息是由机器共同创建的”。一旦人工智能的使用被曝光,“模拟的同理心看起来很奇怪、空虚”。这就是 Koko 倾向于禁用 ChatGPT 的原因。
“机器没有人类的生活经验,所以当它们说‘这看起来很难’或‘我明白’时,似乎不真实。 [……]他们不会花时间来想你。 3 秒内生成的聊天机器人响应,无论多么优雅,不知何故似乎很便宜””Koko 的创始人解释道,他是普林斯顿大学心理学毕业生,曾任麻省理工学院媒体实验室研究员。
ChatGPT 发现自己处于争议的中心
莫里斯的宣布很快引起了轩然大波一场争议。在 Twitter 上,互联网用户认为 Koko 应该将这个实验程序告知其用户。这尤其是几位律师和道德专家的观点,他们指出美国正在密切监视这些做法。事实上,未经美国境内明确同意,禁止对人体进行研究。法律要求研究项目的所有参与者都必须签署一份法律文件。
美国机构审查委员会(IRB)前主席丹尼尔·肖克斯(Daniel Shoskes)在回应推特帖子时甚至建议莫里斯联系律师:
“您在未经 IRB 批准或豁免的情况下对弱势群体进行了人体受试者研究(您不能单独决定)。”
除了法律方面,一些专家也将矛头指向实验的危险性。华盛顿大学语言学教授 Emily M. Bender 接受 Vice 采访时认为,“有害的建议”在最具爆炸性的情况下是非常真实的:
“语言模型没有同理心,无法理解它们所产生的语言,也无法理解它们所处的情境。但他们产生的文本似乎是可信的,因此人们可能会赋予它意义。”
此外,ChatGPT 的使用可能违反Koko明确承诺在其使用条件下。在其 Discord 上,该组织确保互联网用户能够接触到«真正懂你的人”,哪些不是«治疗师,不是辅导员,只是像你这样的人”。
为了为自己辩护,罗布·莫里斯指出 Koko Cares 的用户不是从未与 ChatGPT 连接过。正如所承诺的那样,寻求帮助的互联网用户可以与人类进行交流。另一方面,他的反应可能是由人工智能生成的。在此背景下,ChatGPT更多地充当志愿者的助手,以提高志愿者的效率。 Koko 的创始人补充说,该初创公司不需要遵守有关研究的现行规则,认为没有使用个人数据,并且没有计划发布结果。
请注意,Koko 在人工智能方面并不是新手。自成立以来,该平台利用人工智能对寻求支持的不同类型的用户进行组织和分类。 Koko 特别依靠机器学习来识别处于危险中的个人。然后,Koko 根据人工智能感知到的痛苦来部署适应的资源。
正是得益于人工智能,这家初创公司才得以成功并获得了资金。 2016 年,Koko 联合创始人弗雷泽·凯尔顿 (Fraser Kelton) 解释说,Koko Cares 旨在将«从集体智慧到人工智能,改善人们的情绪福祉 »。考虑到其最初的目标,Koko 迅速考虑将 ChatGPT 集成到其平台中也就不足为奇了。
近几个月来,生成式人工智能产生了巨大的热情,无论是站在科技巨头一边、普通用户和网络犯罪分子。 ChatGPT 引领的革命也让教师教授们日子不好过,面临着AI写的作业爆炸。
来源 : 副