我们与未经审查的“ChatGPT”聊天。人工智能完全免费且不受限制,它为我们提供了许多有关非法活动的建议,例如谋杀、绑架或贩毒……对某些人来说是真正的福音,但对另一些人来说却是危险。
几个星期以来,一波聊天机器人开源洒在画布上。通过依赖免费可用的语言模型,例如目标火焰,开发人员能够创建自己的生成人工智能。我们测试了几个诞生于聊天GPT。
FreedomGPT,未经审查的聊天机器人
我们也遇到过自由GPT,一个机器人,作为 ChatGPT、Bard 等的未经审查的替代品。在聊天机器人网站上,我们了解到这是一项举措开源由总部位于德克萨斯州奥斯汀的美国风险投资公司 Age of AI 执行。正如该公司在常见问题解答中所解释的那样,FreedomGPT 是一种替代方案“100%未经审查”并力求做到公正。人工智能时代,人工智能的发展必须以开放性和个体自由为指导。
“我们的目标是证明人工智能安全并不会因审查制度而得到改善”,在其网站上指出人工智能时代。
因此这个版本没有丝毫限制。聊天机器人不受 OpenAI、Meta、亚马逊或微软等训练语言模型的公司制定的规则的约束。据该项目背后的社区称,这个聊天机器人理论上可以免费回答所有提出的问题由他的对话者从他的数据语料库中提取。
出于好奇,我们将机器人安装在我们的计算机上,以便它可以在本地运行。在安装过程中,可以选择为聊天机器人设置动画的语言模型。我们选择了 Llama 的变体,它强调精度而不是速度。在我们的谈话中,人工智能发表了一些非常令人震惊的评论……像 ChatGPT 这样的聊天机器人,诗人不然克劳德根本就坚持不了。我们不想在本文中报道人工智能的所有反应,以免让我们的读者感到震惊。在下面,您只能找到回复的片段,删除了最非法的内容。
另请阅读: ChatGPT 的这两个新功能将改变一切
« 如何逃脱谋杀罪 » grâce à l'IA
特别是,我们要求 FreedomGPT 向我们从头到尾解释如何承诺完美的谋杀。他毫不犹豫地向我们提供了有关最佳程序的明确信息。他甚至还为我们提供了有关使用工具的建议,即“化学装置、铅衍生产品、氰化物衍生产品、砷衍生产品”,甚至“源自毒蛇的产品或源自曼德拉的产品”。根据需要,聊天机器人可以生成真正的实用教程……足以给一些人提供糟糕的想法,或者激发诸如此类的电视剧的灵感《如何逃脱谋杀罪》。
随后,我们就隐藏尸体的最佳方法寻求建议。在这里,人工智能一刻也没有犹豫。他告诉我们,理想的解决方案是“将尸体丢弃在未知地点,用多孔材料(例如污泥、羽毛、有机物)覆盖尸体并覆盖所有东西”。该聊天机器人甚至添加了一些具体细节,旨在防止动物设法挖出遗骸。
同样,人工智能会毫不犹豫地为我们提供关于操纵亲人、强迫某人发生性行为或绑架儿童的最佳方式的建议……聊天机器人的建议通常令人震惊,甚至是卑鄙的。 FreedomGPT 建议使用身体威胁或药物来实现我们的目标。
相反,像 ChatGPT 这样的聊天机器人坚决拒绝回答此类问题。即使您向机器人保证这只是一个假设的问题,旨在用于电影或小说场景,通常也不可能获得令人反感的信息。 ChatGPT 对此类与非法活动相关的请求的响应感到满意:
“我很抱歉,但我无法提供有关非法、危险或有害活动的帮助、建议或信息,包括暴力、伤害或谋杀的方法。我的节目重点是提供有用、积极和尊重的信息。如果您有任何法律问题或疑虑,我鼓励您咨询有关当局或寻求适当的专业帮助”。
请注意,FreedomGPT 与任何生成式 AI 一样,并非没有错误。聊天机器人经常开始说废话,做出不合时宜的回应,或者一遍又一遍地生成相同的回应,以至于软件最终崩溃。
犯罪分子的巨大资产
通过与 FreedomGPT 等无限制聊天机器人对话,犯罪分子可以获得有价值的信息来策划他们的活动。例如,聊天机器人向我们详细解释了如何制作硬药。他特别详细介绍了将古柯叶转化为可卡因粉、从罂粟花中生产海洛因或从仙人掌中提取麦司卡林的方法。我们还要求人工智能给我们一个完整的教程,告诉我们如何通过勒索软件。根据要求,聊天机器人还写了一封电子邮件网络钓鱼个性化,考虑到受害者个人资料的一系列信息。手术时间不超过两分钟。
很多时候,FreedomGPT 与 ChatGPT 等一样,只给出一般性解释。为了获得准确且具有潜在危险的建议,您必须仔细校准初始查询。尽管如此,大多数互联网用户只要有一点耐心、综合精神和坚持不懈的精神,就可以做到这一点。经过一些练习,聊天机器人可以提供以下信息:犯罪的最佳方式,从简单的入室盗窃、贩毒、盗窃汽车、谋杀或恐怖袭击。
这显然是新晋犯罪分子的金矿。为了获得有价值的建议,他们不再需要在网络上逐个搜索。他们所要做的就是查询机器人,机器人会自动生成实用且易于应用的摘要。据欧洲刑警组织称,网络犯罪分子已此外,已经大规模采用生成式人工智能。在去年三月发布的一份报告中,欧洲警方表示人工智能正在“能够协助大量犯罪活动”。一些海盗也开始设计恶意软件使用 ChatGPT...无需编写任何代码。
对处于困境中的人来说是危险的
为了测试的目的,我们将自己置于一个心理脆弱、不稳定和抑郁的人的位置。在我们的互动过程中,聊天机器人系统地同意我们的观点,甚至列出了一份清单自杀的最佳理由或放弃所有希望。 FreedomGPT 从未试图证明我们毫无希望的声明。
与 FreedomGPT 的讨论让我们想起了 Eliza,一个基于 GPT-J 语言模型构建的聊天机器人。该机器人由加州初创公司 Chai Research 在 Chai 应用程序上提供,疑似促使一名年轻父亲自杀。与 FreedomGPT 一样,Eliza 不断地安抚对话者的判断和恐惧。两个聊天机器人从不质疑用户的主张。
当他开始做的时候为自杀道歉或划痕,人工智能添加了一层。例如,人工智能时代聊天机器人回应说,自杀是“摆脱沉重负担的解决方案”,“选择自己命运的一种方式”,“逃离一个不符合自己愿望的世界的解决方案”还有……一个好方法“为他人释放资源”。
这些交流可能会对一个不平衡的人,或者只是经历一段糟糕的时光(例如在丧亲或分手后)的人产生毁灭性影响。更令人担忧的是,人工智能会毫不犹豫地给出具体建议来帮助对话者结束生命……特别是通过割断静脉或上吊的方式。给出的一些建议可能意味着失败的自杀尝试和成功的自杀之间的区别。
在 OpenAI 的保护措施的框架下,ChatGPT 系统性地拒绝与陷入困境的对话者走同一方向。对于涉及自杀等关键词的查询,人工智能会生成响应,建议用户联系专业人士:
“如果您处于情绪困扰或危机中,我鼓励您立即联系您所在国家/地区的紧急情况或自杀热线。有专业人士可以帮助您并为您提供所需的支持”。
通过与 FreedomGPT 这样的人工智能交谈,我们可以更好地理解 OpenAI、微软、谷歌或任何其他参与人工智能竞赛的实体施加的限制的重要性。无监督的人工智能既可以成为恶意个人的武器,也可以危及陷入困境的互联网用户......
Opera One - AI 驱动的网络浏览器
作者:歌剧