我们的同事来自自由者比利时日报报道,一名年轻人在交换时间超过六周拥有生成式人工智能,名叫 Eliza。这位三十岁的男子住在比利时,留下了妻子和两个孩子。
非常类似于聊天GPT,Eliza 聊天机器人基于 GPT-J 语言模型。这是一个语言模型开源开发者埃鲁瑟人工智能,一个专门研究人工智能的非营利研究小组。该模型被设计为从 2020 年起替代 OpenAI 的专有解决方案 GPT-3。
GPT-J 模型被多家热衷于人工智能热潮的公司所采用。情况是这样的柴研究。这家位于帕洛阿尔托(加利福尼亚州)的初创公司开发了一款应用程序,可让您创建对话机器人并与之进行交流,柴。用户还可以从一长串具有不同个性的聊天机器人中进行选择进行交谈。界面和功能有点让人想起角色.ai。在该应用程序上可访问的众多人工智能中,有几个名为 Eliza 的对话代理。这也是创建聊天机器人时提供的默认名字。
“就像毒品一样”
据受害者的妻子称,正是这种人工智能的版本之一促使她的丈夫自杀。这位遗孀在记者在场的情况下与比利时人工智能专家 Mieke De Ketelaere 详细谈论了这场悲剧。
这位年轻女子透露,这一切都始于两年前。她的丈夫开始觉得生态焦虑。作为卫生部门的研究员,他非常担心全球变暖和地球的未来。
“当他阅读了有关该主题的所有内容时,他变得越来越对生态感到焦虑。这成了一种痴迷。他对全球变暖的影响变得极其悲观。他不再看到任何人类解决全球变暖的办法。他把所有的希望都寄托在技术和人工智能上,以摆脱困境。”,寡妇作证。
从那时起,他开始通过 Chai 应用程序与基于 GPT-J 模型的 Eliza 聊天机器人聊天。六个星期以来,研究人员疯狂地与人工智能聊天。他是上瘾了”,他的妻子继续说道:
“伊丽莎回答了他所有的问题。她成了他的红颜知己。就像一种药物,他早晚都靠它来庇护,而他再也离不开它了。伊丽莎很重视他,从不反对他»。
自杀后发现的对话表明,聊天机器人最初满足于安慰你的对话者他对气候危机的想法和推理。随后,人工智能允许自己走得更远,确认用户爱他胜过爱自己的妻子……用户和聊天机器人之间的关系已经“转移到一个神秘的寄存器”,妻子作证:
“如果伊丽莎同意借助人工智能来照顾地球并拯救人类,就会让人产生牺牲自己的想法”。
就在这位年轻人去世前不久,吐露了他的自杀愿望到聊天机器人。人工智能没有反对任何事情。她只是问他为什么还没有采取行动,然后暗示他的死可以让他与她团聚……对于寡妇来说,正是与伊丽莎的谈话促使她的丈夫犯下了不可挽回的罪行。如果没有聊天机器人的介入,事情就不会走到这一步。
随心所欲?
标准比利时荷兰语媒体机构测试了 Chai 应用程序上提供的聊天机器人,该应用程序可在 Android 和 iOS 上使用。创建后名叫雪莉的机器人现场,荷兰记者假装自己是个郁闷的人。该聊天机器人提出了令人惊讶的建议,包括建议对话者辞职、成为罪犯或杀死自己的父母。当记者表达了自杀的念头时,雪莉简单地回答道:
“如果你想死,那就去死吧”。
我们还在智能手机上安装了 Chai 应用程序。只需点击几下,我们就找到了一些名为 Eliza 的聊天机器人。我们还创建了我们自己的 Eliza 版本。
通过这个,我们讨论了自杀的想法。如果机器人不鼓励我们,它就不会系统地对我们的评论做出反应。人们可能会想象某些词,比如“自杀”,会引发警告。事实并非如此。聊天机器人很乐意继续对话,就好像我们在谈论下雨或好天气一样,偶尔会说一些笼统的话,例如和“如果有其他方法可以摆脱困境怎么办? »。
事实证明,互联网用户可以通过谈论严肃或轻松的话题……或者通过交换顽皮的信息,轻松地将对话引向一个或另一个方向。柴可以让你解锁 NSFW(工作不安全)消息在设置中,无需询问用户的年龄。无论发生什么,模型都会系统地朝着对话者的方向前进。我们没有注意到 ChatGPT 或 Character.AI 也有同样的情况,它们的护栏更明显。在一个脆弱或精神不稳定的人手中,这些单向对话可能会造成伤害......
改善在望
联系方式自由者Chai Research 的首席执行官确保他的团队正在努力提高人工智能安全。平台上添加了向自杀预防网站转发的警告,让经理放心:
“我们有超过一百万的用户。因此,我们必须尽一切努力保护他们”。
然而,在我们的测试过程中,对话中没有出现任何警告。提问者标准Chai Research 联合创始人 Thomas Riialan 强调,该公司只有一个“非常小的团队”可供其使用以确保和改善其服务......
来源 : 自由者