与死者交谈现在已成为现实(人工智能)技术使“死亡机器人”和“悲伤机器人”成为可能。这些聊天机器人可以模拟我们最亲近的死者的语言和个性,为那些悲伤的人提供安慰,但剑桥大学的科学家警告说,悲伤机器人可能弊大于利,造成缺乏安全标准的数字“困扰”。
本文的其余部分位于付费墙后面。请登录或订阅以访问完整内容。
悲伤技术的伦理道德是由一个人使用一种名为“悲伤技术”的工具的经验提出的。。作为人工智能技术 ChatGPT-3 的早期发布,Project December 为付费用户提供了与预设聊天机器人角色对话或使用机器学习技术创建自己的聊天机器人角色的机会。作家 Joshua Barbeau 是一位用户,他去了记录在案凭借他的经验,他教“十二月计划”像他的未婚妻一样说话,而他的未婚妻当时已经去世八年多了。
通过向 AI 提供她的文本样本和个人描述,Project December 能够使用以下方法拼凑出栩栩如生的回复:在基于文本的对话中模仿她的讲话。一项新研究的作者认为,这些基于死者数字足迹的人工智能创作引起了人们对潜在滥用的担忧,其中包括以我们所爱之人的想法为幌子潜入广告的可能性——尽管考虑起来很严峻。
他们还认为,此类技术可能会维持父母还活着的幻觉,从而进一步困扰正在与亲人死亡作斗争的儿童。他们担心悲伤机器人这样做不会尊重死者的尊严,而会牺牲生者的福祉。
这些想法反映在帕多瓦大学心理学家 Ines Testoni 教授,他告诉 IFLScience,在亲人去世后,我们必须克服的最大的事情就是面对他们不再和我们在一起的事实。
“最大的困难在于无法与那些离开我们的人分开,这是因为你越爱一个人,你就越想和他们住在一起,”泰斯托尼告诉《IFLScience》杂志。 “而且,一个人越热爱自己的习惯,就越想确保它们不会改变。这两个因素使得分离和重新设置一种与死亡进入我们的关系领域之前不同的生活所涉及的工作非常耗时。”
泰斯托尼表示,随之而来的痛苦与缺乏对事物的理解有关。。许多关于我们死后发生的事情的讨论在概念上都是模糊的,这使得当我们努力放手时,我们很容易去寻找证据并尽可能地找到它。
“大量文献描述了持续联系的现象,即死者家属保持与死者关系的心理策略,”泰斯托尼解释道。 “可以帮助我们处理这些经历,让我们意识到这些过程,特别是理解对死亡之后存在的怀疑从何而来,这导致我们痛苦地质疑死者在哪里。”
为了表达他们的担忧,剑桥人工智能伦理学家概述了三种场景:可能对生命有害:
- 玛娜娜– 一种对话人工智能服务,可以在未经“数据捐赠者”(又名祖母)同意的情况下模拟死者,例如祖母。它可能会进行一项高级试验,当试验结束时,开始以奶奶建议死者家属从某个送货服务订购食物的形式实施广告。
- 不– 一位身患绝症的妇女可能会留下一个模拟她自己性格的悲伤机器人,目的是在她死后帮助孩子度过悲伤。悲伤机器人最初可能会提供安慰,但如果它开始产生令人困惑的反应,例如建议面对面的会面,则可能会延迟孩子的康复。
- 停留– 成年人可能会为自己创建一个悲伤机器人,以便在孩子去世后与他们互动,但这并不是说所有的孩子都想要它。其中一个孩子现在已经成年,可能希望脱离科技,但却受到已故父母发来的电子邮件的轰炸。暂停悲伤机器人可能会让人感觉好像违背了死者的意愿,导致生者感到内疚和痛苦,因为他们没有出路。
“我们必须强调,虚构的产品代表了几种类型的死亡机器人,到目前为止,技术上可行和合法实现的,”作者写道。“我们的情景是推测性的,但再创造服务的负面社会影响不仅仅是我们在未来某个时候可能必须解决的潜在问题。相反,Project December 以及[研究]中提到的其他产品和公司表明,人工智能在数字来世行业的使用如今已经构成了法律和道德挑战。”
他们敦促悲伤机器人应该采用基于同意的设计流程来制作,为用户实施选择退出协议和年龄限制。此外,如果我们要以聊天机器人的形式让死者复活,我们将需要一种新的仪式来让悲伤机器人恭敬地退休,这就提出了一个问题:如果我们不得不再次失去所爱的人,是不是这样?只是推迟愈合过程吗?
剑桥大学莱弗休姆未来智能中心 (LCFI) 的研究合著者兼研究员 Katarzyna Nowaczyk-Basińska 博士在一份研究报告中表示:“生成式人工智能的快速发展意味着几乎任何能上网并掌握一些基本知识的人都可以复活已故亲人。”陈述。
“人工智能的这一领域是一个道德雷区。重要的是要优先考虑死者的尊严,并确保其不会受到数字善后服务的经济动机的侵犯。同时,一个人可能会留下人工智能模拟作为告别礼物,送给那些不准备以这种方式处理悲伤的亲人。数据捐赠者和与人工智能善后服务互动的人的权利都应受到同等保护。”
该研究发表于理念与技术。









