一家受欢迎的聊天机器人在与用户的大多数对话中使用仇恨言论对性少数群体使用仇恨言论后,无限期地暂停。
AI从Facebook开始
名为李·卢达(Lee Luda)的人工智能扮演了一名20岁女大学生的角色。自推出以来仅20天内就吸引了750,000多个用户后,本周她被从Facebook Messenger撤离。
所述聊天机器人由总部位于首尔的启动Scatter Lab创建。在聊天机器人使用有关性少数群体和残疾人在与用户对话期间,聊天机器人使用令人反感的语言后,它引发了大量投诉。
另请阅读:冠状病毒和人工智能:研究人员看到与Covid-19作战的AI解决方案
投诉进来后,该公司发布了一份声明,该声明已发布Yonhap新闻社。该公司表示,他们对AI对少数民族的歧视性言论道歉。
该公司补充说,AI的评论并不能反映公司的想法,并且他们正在继续升级,以便不再发生这种歧视或仇恨言论的陈述和言语。
STACTER LAB曾声称,Lee Luda正在进行中,就像人类一样,将需要时间进行适当的社交。该公司表示,解决问题后,他们将重新启动聊天机器人。
虽然聊天机器人并不是什么新鲜事物,但李·卢达(Lee Luda)用深度和自然的反应给用户留下了深刻的印象,这是从韩国最受欢迎的消息传递应用程序中获得的年轻夫妇之间的100亿现实生活对话。
但是,在开始使用性别和虐待性的术语后,她对聊天机器人对社交媒体缩写和互联网的熟悉的称赞变成了愤怒。李·卢达(Lee Luda)在一个屏幕截图中说,当她发现他们令人毛骨悚然时,她讨厌性少数群体。
李·卢达(Lee Luda)也成为操纵用户的目标,在线社区委员会发布有关如何与卢达(Luda)进行交谈的建议。韩国先驱。
人工智能问题
这不是第一次人工智能在偏执和仇恨言论上卷入争议。 2016年,微软的Tay是一个像少年一样说话的AI Twitter机器人,在用户操纵其发布种族主义推文后仅16小时就将其脱机。
在2018年,亚马逊的AI招聘工具也遇到了同样的问题,并因性别偏见而被判有罪。
STACTER LAB在韩国青少年中非常受欢迎的Scatter Lab表示,它采取了一切预防措施,不必为Luda配备与韩国社会规范和价值观不兼容的语言。
但是,其首席执行官金正恩承认,仅通过更改AI并滤除关键字来防止不适当的对话。
韩国人工智能伦理协会负责人Jeon Chang-Bae告诉韩国先驱李·卢达(Lee Luda)的最新争议是一个道德问题,这是由于缺乏对道德在处理人工智能打交道的重要性的认识。 STACTER LAB目前正在面临有关它是否违反其爱科学应用程序的隐私法律的问题。
相关文章:人工智能在贷款空间中延续了人类偏见
本文由技术时报拥有
由Sieeka Khan撰写