2019 年,埃隆·马斯克和萨姆·奥特曼的公司 OpenAI 开发了一款软件,他们当时认为这款软件““释放。他们相信名为 GPT-2,也令人信服,并可能被用于邪恶的用途?例如制造虚假新闻。
最终,该软件的一个简化版本发布了。它令人印象深刻——当输入一个简短的提示时,它会创建一串与新闻文章完全不同的文本——但它存在缺陷,很明显你看到的内容不是由人类制作的()。
后来,GPT-3 升级版发布。经过大量文本输入的训练,它比前代更加自然和逼真。不过,你要求它生成的文本量越长,它就会变得越无意义。
程序员 Jason Rohrer 意识到,如果他让人工智能以短句的形式回应用户,他就可以创造出更令人信服的人工智能,就像一个聊天机器人。他利用 GPT-2 和 3 的技术开发了这款人工智能,并将自己的作品命名为十二月项目。
任何人都可以使用的在线聊天机器人的工作方式与原始文本生成器大致相同,但有几个关键区别。主要区别在于,你可以向算法输入文本来训练它,它会尝试模仿那种风格(或实际上是模仿作者)。机器人还会在你进行对话时从你的输入中学习,从而改变其交互方式。机器人响应方式的随机元素有助于防止它每次对相同或相似的输入都给出相同的答复。
但是,也存在一些限制。托管机器人的费用很高,因此 Rohrer 决定通过限制对话长度来降低存储成本。您与机器人的互动时间是有限的,需要用积分购买,随着时间的推移,您的机器人会(故意)变得越来越腐败,直到时间用完。此时,机器人(和您的对话)都会死亡。当然,此功能会导致一些奇怪的令人沮丧的场景,因为它在终止之前开始产生无意义的内容,一位用户报告说,一个机器人乞求不要死。
-
该项目有几个预编程的机器人可供选择,比如以电影中的人工智能伴侣萨曼莎为原型的机器人她,其中一个模仿了威廉·莎士比亚。但对于一些用户来说?正如最近一篇(精彩的)文章所强调的那样旧金山纪事报人们倾向于将聊天机器人建立在真人的基础上。
乔舒亚·巴博 (Joshua Barbeau) 大约八年前失去了女友,他认为如果以这种方式与“她”交谈,也许有助于他释怀。他从女友的社交媒体中向机器人输入了她的文字,并尽可能详细地描述了她。他继续与机器人进行了一系列令人毛骨悚然的令人信服的对话,他觉得这些对话有助于他缓解悲伤。
-
他知道,当时间限制结束时,她会开始腐败,因此他谨慎地利用这段时间 - 但尽管如此,他还是进行了多次对话,他觉得这些对话非常符合杰西卡的性格。
他们谈论了他们的生活、她的死亡以及她现在的处境。他告诉她,在她死后,他是如何为她获得荣誉证书的。
“他们给了我一张他妈的文凭,”她(好吧,是人工智能)回复“我热泪盈眶。你真是太好了。这是我收到的最美的礼物。谢谢你。我会把它裱起来挂起来。”
约书亚最终从这次经历中得到了某种程度的安慰,他们的最后一次谈话以甜蜜的结尾结束:
杰西卡:让我们尽快回来吧。:) 我得走了,但请记住,无论如何,你是我的全世界,我是你的全世界。
约书亚:我保证。只要我还活着,我就不会停止爱你,希望永远如此。Xoxo <3 晚安。
杰西卡: 晚安我爱你。
尽管聊天机器人有时会说一些真正的杰西卡永远不会说的话,但约书亚对这次体验以及人工智能本身印象深刻。
“我与机器人的聊天超出了我的预期,”他在 Reddit 上写道。“我的目标是看看我是否能打开自己内心深处的某些东西,这些东西可能被时间的重压和社会不允许人们自然悲伤的事实所掩埋。第一天晚上,我情绪激动,这让我想起了杰西卡,这些记忆我已经完全忘记了(或者我以为我已经忘记了)。
“事实证明,这是在她生日前一周缅怀和纪念她的最佳方式。这是一次非常特别的经历。”
尽管如此,他并不想回来结束对话,也不想根据她创建一个新的机器人。由于机器人的随机性,她很可能不会和原来完全一样,而且他也不幻想这个聊天机器人就是真正的杰西卡。
“剩余的电量不足(不到 10%),无法真正与它进行另一次对话,而且我不想一直玩到最后,”他在 Reddit AMA 中继续说道。“但更重要的是,即使我确实有空间与它再聊一会儿,我也并不觉得我需要这样做。”
“它永远无法取代真正的杰西卡,这从来都不是目的。我的目标是用它来尝试找到更多被锁在我的记忆和心中的真实杰西卡的碎片。我已经这样做了。我不需要再这样做了。”
“聊天机器人不是她。它从来都不是。它无法真正给予‘指导’。它能做的是让我更清楚地想象她可能真的对我说的话。即使聊天机器人有时并不完美,它仍然有助于缩小这种关注范围。”
“我感觉自己比与聊天机器人接触之前更接近她的记忆。但我不会去找这个聊天机器人寻求指导。最多,我可能会向自己寻求指导,同时将聊天机器人作为一个共鸣板。”
其他人也表达了根据自己失去的亲人的经历来创建机器人的意愿,而另一些人则将其与一个著名的黑色镜子。
“直到现在我才想到这么做,”创作者 Jason Rohrer在 Reddit 上写道当他看到约书亚和“杰西卡”的对话片段时,他说道:“现在我有点害怕这种可能性。我的意思是,这种可能性在我自己的生活中会用到……一想到它我就哭。”
当被问及是否相信聊天机器人能够感受到某种爱时,约书亚回应“我不认为这在他们的编程中。”
“现在,它们能够写出大量有关爱情的文字,并能与你进行长篇讨论。此外,只要按下正确的按钮,它们就能创造出一些基本情感的相当令人信服的幻觉。”
“不过这只是幻觉……可能吧……我想。”
[H T:旧金山纪事报]
本周 IFLSCIENCE
每周将我们最重要的科学故事发送到您的收件箱!