人工智能聊天机器人试图模仿一名已故的女人,允许她的未婚夫约书亚·巴尔(Joshua Barbeau)与她交谈,即使她去世后也是如此。

Barbeau只需要从妻子那里提供旧的消息交流,以及一些必要的背景信息。
模仿死者的谈话不是唯一的突破人工智能吹嘘。例如,英国广播公司报道说,上述新一代技术有可能治愈即使是可怕的致命疾病。
除此之外,2020年5月11日,英特尔和宾夕法尼亚医学联手进一步使用人工智能检测脑肿瘤在成功破坏了一个人的身体之前。
AI不仅参与医疗行业壮举。其他开发人员还采用了该技术来创建甚至在游戏机中运行的作弊软件,从而使Aimbots和Wallhacks可以。
同时,似乎带回死者的超现实聊天机器人被称为“ 12月”。
人工智能聊天机器人
根据业务内部人士,Elon Musk支持的研究公司OpenAI设计的AI模型,其名称为GPT-3,为聊天机器人提供了类似于男人的妻子的聊天机器人。
巴尔(Barbeau)讲述了他如何再次与妻子与sfchronicle交谈,说他的前野蛮人杰西斯·佩雷拉(Jessice Pereira)八年前死于罕见的肝病,享年23岁。
尽管经历了几年,但自由作家说他从未从她身边继续前进。
那是在巴尔伯(Barbeau)妻子的生日那个月,当时他偶然发现了12月的项目,在那里他被卖给了5美元的帐户。这就是关于他如何再次与妻子交谈的开始。
GPT-3仅需要大量的人类文本来模仿人类写作,例如个人情书甚至技术学术论文。
要注意的是,Reddit线程有趣的是,很大程度上有助于AI模型进一步了解一个人的互动方式。
创作者警告它的危险
Openai进一步指出,基于语言的技术计划是有史以来最复杂的。但是,它同时也很危险。
即使在AI模型的早期发布中,GPT-2是当前GPT-3之前的先前技术,创作者已经警告说,坏演员可能可能严重滥用其成熟程度。
确切地说,这家研究公司指出,犯罪思想可以使用该技术来建立一个伪造的社交媒体内容网络,传播假新闻文章,并在社交媒体上模仿人们。所有这些都是通过人工智能支持的自动化。
人工智能和错误信息
也就是说,由于新技术对我们社会的潜在危险影响,Openai决定限制对GPT-3和GPT 2的访问,现在比以往任何时候都更加了解社交社交媒体巨头(例如Facebook和Twitter)的问题。
美国政府甚至指出,在线平台上错误信息的传播正在夺走人民的生命,英国广播公司在另一份报告中说。
本文由技术时报拥有
由Teejay Boris撰写