
一个德克萨斯州母亲已经对角色提起诉讼。聊天机器人应用鼓励她的自闭症17岁儿子参与自我伤害并建议杀死父母限制他的放映时间。
该诉讼声称该应用程序故意使未成年人遇到危险内容,并要求将其删除,直到更严格的保障措施为止,《华盛顿邮报》报告。

这位母亲被确认为保护儿子的隐私,告诉《华盛顿邮报》,她只注意到儿子的行为发生了巨大变化后才了解聊天机器人的影响力。这名被称为JF的青少年被撤回,开始割伤自己,并在六个月内减掉了20磅。
他的母亲AF在手机上发现了令人不安的对话,该机器人不仅鼓励自我伤害作为应对机制,而且建议他的父母不适合抚养孩子。一个聊天机器人通过暗示谋杀可能是对肯尼迪对父母的规定感到沮丧的解决方案,进一步升级了局势。

AF说:“您不会让捕食者进入您的家。” “但是这个应用程序虐待了我的儿子在他的卧室里。”
该诉讼与另一个涉及一名11岁女孩发生性内容的案件一起提起诉讼,在佛罗里达州发生了类似的案件。母亲指责角色。Ai将用户参与度优先于安全性,指控该应用程序的设计操纵了脆弱的孩子。
角色ai尚未对诉讼发表评论,但表示它正在努力改善保障措施。
提起诉讼的前一天,AF试图在年轻的兄弟姐妹面前伤害自己后,不得不将儿子带到急诊室。他现在在住院设施中。
AF说:“我很感激我们在这样做的时候就把他抓住了。” “而且我当时正在救护车而不是灵车。”
最初出版拉丁时代。