“OpenAI 的使命是确保通用人工智能造福全人类”我们可以读吗在 ChatGPT 创建者的网站上。这是一个非常好的原则宣言……目前还远不是事实。
一项漫长而令人不安的调查时间据透露,目前最著名的科技公司使用 Sama 公司的服务来“教导”ChatGPT 不要以有毒或暴力的方式回应用户。 Sama 的总部位于旧金山,谷歌、微软和 NASA 也是该公司的客户。但在 ChatGPT 工作的数十名员工住在距离硅谷很远很远的地方。
他们实际上是来自萨马的肯尼亚工人,工资按照时间每小时 1.20 到 2 欧元之间,他们进行了“肮脏的工作”,这使得我们今天可以使用 ChatGPT,而不会让机器人迷失在有毒的、种族主义的、暴力的妄想中。
接受过最糟糕的网络训练的人工智能“警察”
为了充分理解这些低薪工人所承受的痛苦,我们首先必须快速解释 ChatGPT 是如何训练的,以及 OpenAI 防止其产生有毒言论的技术。该机器人的“智能”来自于收集和分析从网络上获取的数十亿组单词。当然,这个总和还包括人类交换产生的大量最糟糕的结果……一旦模型经过训练,就可以在模型中找到它。
然而,OpenAI 不可能“手工”验证这些元素,这需要数年时间。因此,我们产生了将保护机制集成到 ChatGPT 中的想法,ChatGPT 是一种由人类训练的“警察”人工智能,能够限制模型产生的有毒言论。为此,必须向其“喂食”其他非常特定类型的文本:仇恨、露骨、暴力、有毒言论等。
这些是根据以下内容提取的文本时间“来自互联网最黑暗的角落”这些被提交给萨玛的肯尼亚工人进行“贴标签”。内容很烂,描述的很详细“儿童性虐待、兽恋、谋杀、酷刑、自残和乱伦”。
Sama 的“贴标签者”时间能够接受采访的人表示,他们每天需要为机器描述 150 到 250 篇此类段落,包括 100 到 1000 个单词,每天工作 9 个小时。 Sama 则提到了一个较低的数字,每天大约 70 条内容。不管怎样:此类工作的心理暴力可能会造成创伤。一位接受该杂志采访的员工甚至谈到“酷刑» 记住必须标记,例如描述内容“一个男人在孩子在场的情况下与狗发生性关系”。
面对这项工作的难度,员工们当然能够得到萨玛提供的心理支持。但受访员工认为,考虑到他们面临的内容和所需的生产力,这在很大程度上是不够的。
合同太多了
除了标记暴力文本之外,OpenAI 还与 Sama 签订了另一份合同,这导致他们的合作仓促结束。 2022 年 2 月,ChatGPT 的创建者要求其服务提供商收集“性和暴力图像» 对于他的另一个项目,“使您的工具更安全的必要步骤”。该公司这样做了,并收集了 1,400 张图像,其中包括明显非法的照片,包括针对儿童的性暴力、强奸、谋杀的图像……这一收集很快就让非洲分公司感到担忧,并导致了一份尚未生效的合同提前终止。持续八个月。
两家公司在这个问题上互相推卸责任:Sama 表示 OpenAI 已发送“涉及某些非法类别的附加说明”合同签订后,他被迫撕毁合同并解雇接受合同条款的经理。 +
就 OpenAI 而言,它并不否认收到过儿童色情图片,但否认曾要求提供这些图片。在发送至的新闻稿中时间,她试图为自己辩解:“当 Sama 告诉我们他们试图收集此类内容时,我们表示存在沟通不畅,并且我们不想要该内容。在意识到存在通信错误后,我们没有打开或查看有问题的内容。 »
人工智能的阴暗面
这项调查提醒我们,在这些令人惊叹的新工具背后,有一个非常黑暗的现实,必须牢记:它们要求人类观看令人厌恶的内容,这可能会对他们的心理健康产生影响。由于执行这项任务的劳动力工资很低,而且得到的心理支持也很少,因此问题更加严重。当雇佣他们的公司——总是非常谨慎地——价值数百亿美元时,真是可惜。提醒一下,OpenAI 的估值已经达到 290 亿美元。
就萨马而言,无论如何他都决定停止这笔费用。去年她曾已经被固定时间负责监管 Meta 平台的肯尼亚员工的工作条件恶劣。几天前,该公司宣布终止与马克·扎克伯格的公司的合作,以及文本生成器的标签工作。她现在将全身心投入到工作中“计算机视觉数据注释”。
因此,萨玛退出了游戏,但是,就像《自然》一样,生成人工智能市场也讨厌真空。其他人将取代它,以满足训练这些算法所需的小手不断增长的需求。最终,也许道德和无偏见的人工智能的设计可以很早就开始。通过保护那些在网络深处创造它们的人。
来源 : 时间