聊天机器人从未如此接近于模仿人类,文字中的真实性在声音中也是真实的。 OpenAI 正准备为 ChatGPT 部署新的、具有传奇色彩的声音,并警告其聊天机器人拟人化面临的风险。
聊天GPT将获得极其复杂的新声音,到今年秋天所有付费订户都可以使用。这些声音技巧是如此真实斯嘉丽约翰逊认为她认出了自己的声音, 乐于助人开放人工智能暂停该女演员所指控的合成声音“Sky”。
在其“系统地图”中列出了与 GTP-4o 相关的风险,OpenAI最新语言模型,该公司认识到拟人化的声音可能会导致一些用户对聊天机器人产生情感依恋。该公司的研究人员观察了用户与模型建立情感联系的实例。
这种拟人化可以让孤独的人受益,他们想要打破模式或练习社交互动,而不用担心嘲笑的目光。但这些近乎人类的声音也会损害健康的人际关系,并将最害羞的人锁在自己的泡沫里。
另一个危险:机器人的声音可能会导致用户更加信任机器人的“幻觉”响应。在 GPT-4o 带来的其他潜在风险中,OpenAI 指出社会偏见的放大、虚假信息的传播以及……对化学武器开发的援助!
OpenAI 还表示,已经进行了测试,以确保人工智能模型不会试图打破链条并为灾难做好准备。最好避免人工智能成为天网……
这项研究是 OpenAI 针对员工和专家对该公司遏制人工智能潜在危险的措施所提出的担忧做出的回应。披露这些细节有助于减轻批评,最重要的是,表明公司认真对待这些问题。
来源 : 有线