人工智能伦理学家强调悲伤机器人可能跟踪活人的三种可怕情景
“如果人工智能以惊人的准确度再现人们失去的记忆,并给他们带来不必要的数字困扰,这些服务可能会给人们带来巨大的痛苦。”
与死者对话现在已成为现实(AI) 技术使“死亡机器人”和“悲伤机器人”成为可能。这些聊天机器人可以模拟我们已故亲人的语言和个性,为悲伤的人提供安慰,但剑桥大学的科学家警告说,悲伤机器人带来的危害可能大于好处,会制造出缺乏安全标准的数字“鬼魂”。
悲伤技术的伦理问题是由一个人使用一种名为作为人工智能技术 ChatGPT-3 的早期版本,Project December 为付费用户提供了与预设聊天机器人角色交谈或使用机器学习技术创建自己的角色的机会。作家 Joshua Barbeau 就是其中一位用户记录在案他利用自己的经验,教“十二月计划”的学生们学着未婚妻的样儿说话,当时他的未婚妻已经去世八年多了。
通过向人工智能输入她的文本样本和个人描述,Project December 能够使用在基于文本的对话中模仿她的讲话。一项新研究的作者认为,这些基于已故者数字足迹的人工智能创作引发了对潜在滥用的担忧,其中——尽管这令人不寒而栗——包括以我们所爱的人的思想为幌子偷偷植入广告的可能性。
他们还表示,这类技术可能会让那些正在承受失去亲人痛苦的孩子们更加痛苦,因为他们会一直幻想他们的父母还活着。他们担心,悲伤机器人这样做,会以牺牲生者的幸福为代价,不尊重死者的尊严。
这些想法反映在帕多瓦大学心理学家 Ines Testoni 教授他告诉 IFLScience,亲人去世后我们要克服的最大困难就是面对他们已经不在我们身边的现实。
Testoni 告诉 IFLScience:“最大的困难在于无法与那些离开我们的人分开,这是因为你越爱一个人,就越想和他们一起生活。”“但是,一个人越喜欢自己的习惯,就越想确保它们不会改变。这两个因素使得分离和重置与死亡进入我们的关系领域之前不同的生活所涉及的工作非常耗时。”
Testoni 表示,由此带来的痛苦与缺乏对。关于我们死后会发生什么,许多讨论在概念上都很模糊,这使得我们在挣扎着放手时很容易去寻找证据,并尽可能地找到它。
泰斯托尼解释说,“大量文献描述了持续纽带现象,即丧亲者为维持与死者的关系而采取的心理策略。”可以帮助我们处理这些类型的经历,让我们意识到这些过程,特别是理解对死亡之后存在的怀疑从何而来,这让我们痛苦地质疑死者在哪里。
为了表达他们的担忧,剑桥人工智能伦理学家概述了三种情况,其中可能对生命造成危害:
- 玛娜娜? 一款模拟已故者(如祖母)的对话式人工智能服务,无需“数据捐赠者”即祖母的同意。该服务可能会进行高级试用,试用期结束后,开始以祖母建议死者家属从某个送货服务订购食物的形式进行广告宣传。
- 父母? 一位身患绝症的女性可能会留下一个模拟她自己个性的悲伤机器人,目的是帮助孩子在她去世后度过悲伤。悲伤机器人最初可能会提供安慰,但如果它开始产生令人困惑的反应,例如建议亲自见面,它可能会延迟孩子的康复。
- 停留? 成年人可能会创建自己的悲伤机器人,以便在孩子去世后与他们互动,但这并不是说所有孩子都想要它。其中一个孩子,现在已经成年,可能希望脱离这种技术,但却被他们死去的父母发来的电子邮件轰炸。暂停悲伤机器人可能会让人觉得它违背了死者的意愿,导致生者感到内疚和痛苦,因为他们觉得他们无路可走。
“我们必须强调,这些虚构的产品代表了几种类型的死亡机器人,截至目前,技术上可行和合法实现“我们的设想只是推测,但重现服务带来的负面社会影响不仅仅是未来某个时候我们可能需要应对的一个潜在问题。相反,Project December 以及 [研究] 中提到的其他产品和公司表明,人工智能在数字来世行业的应用如今已经构成了法律和道德挑战。”
他们敦促悲伤机器人的设计应遵循基于同意的设计流程,实施退出协议和用户年龄限制。此外,如果我们要以聊天机器人的形式让死者复活,我们将需要一种新的仪式来礼貌地让悲伤机器人退休,这引发了一个问题:如果我们不得不再次失去亲人,那么这种仪式是否只是延缓了愈合过程?
“生成式人工智能的快速发展意味着几乎任何拥有互联网接入和一些基本知识的人都可以让已故的亲人复活,”这项研究的合著者、剑桥大学利弗休姆未来智能中心 (LCFI) 的研究员 Katarzyna Nowaczyk-Basi?ska 博士在一份声明中表示。陈述。
“人工智能的这个领域是一个道德雷区。重要的是要优先考虑死者的尊严,并确保这一点不会被数字来世服务的经济动机所侵犯。与此同时,一个人可能会留下一个人工智能模拟作为告别礼物,送给那些不愿意以这种方式处理悲伤的亲人。数据捐赠者和与人工智能来世服务互动的人的权利应该得到同等的保障。”
该研究发表于哲学与技术。