多年来,研究人员和举报人一直对女性中的性别歧视感到震惊。算法。而到了 2023 年,似乎一切都没有改变。然而,这不是一个小问题。人工智能系统中常见的性别偏见和成见对女性的日常生活产生影响,包括:歧视安全和合规问题私生活。在许多领域,女性受到的保护或优惠程度低于男性,例如安全带和安全气囊只是为了保护男性身体而设计的。在数字世界中,我们也发现了同样的歧视,有时甚至更严重。
要理解这一点,我们必须回到第一个公开的性别歧视算法案例。据报道,2014 年,亚马逊测试了一种新的人工智能系统,该系统旨在让招聘员工变得更容易路透社2018 年。它承诺从数百份简历中预选最完美的候选人,这为人力资源节省了宝贵的时间。问题:该软件系统地排除了女性。这家电子商务巨头首先尝试通过修改设置来纠正这种情况,但没有成功。该组织最终于 2017 年停止使用它。
算法提供了更刻板的现实版本
为什么这个软件不喜欢女性?因为IA,为了他的训练,依赖数据。问题在于,自 2000 年代以来存在的大部分数据都偏向于男性。例如,如果我们向人工智能提供来自谷歌新闻的数据,它自然会将男性与领导角色联系起来,将女性与助理或家庭主妇联系起来。因为 ”算法不仅能再现现实,而且“过度打字”现实。也就是说,根据他们已有的数据,他们提供了一个更加刻板的版本»,日内瓦大学计算机科学家兼教授 Isabelle Collet 在接受采访时解释道海蒂新闻。
另请阅读: 人工智能对 LGBT 群体构成风险?
另一个问题:创建这些人工智能系统的团队主要是男性。根据世界经济论坛的数据,只有 22% 的人工智能和数据科学专业人员是女性。金子, ”与所有技术一样,人工智能反映了其创造者的价值观»,纽约大学人工智能新研究所联合主任 Kate Crawford 在接受我们的同事采访时强调道欧洲新闻报。这并不是说程序员都是有男子气概的人。但是,如果您从事人工识别软件的工作,您将在自己身上进行测试:如果您和您的团队主要是白人男性,那么它对于这些个人资料尤其有效,而对于深色皮肤的女性则可能不太有效。
更多混合的开发人员团队、技术解决方案……
采访者回声报,3 月 7 日星期二,Mathilde Saliou,作者技术女性主义:数字技术如何加剧不平等,回忆道“算法是人类构建的工具,因此是一种充满错误和偏见(性别歧视、种族主义等)的工具,无论设计它的人多么聪明。然而,在开发人员中,学习过编码或工程的男性比例过高。他们的社会同质性意味着他们有同样的健忘,有同样的盲点»。
如何纠正这种情况?除了解决方案技术谁能纠正这些偏见,这些偏见不仅仅涉及性别歧视,首先需要学会识别偏见,包括那些我们不知道的。这是一项涉及程序员和用户双方的工作。。
在使用AI时,还应该了解它是如何运作的,问问自己所使用的数据来自哪里,而不是仅从表面上接受其建议——这并不总是那么容易,特别是因为人工智能的功能通常不透明。最后,奥德·伯恩海姆(Aude Bernheim)和弗洛拉·文森特(Flora Vincent)在他们的书中解释说,在开发人员中建立更多混合团队将能够代表男性和女性的观点人工智能,离不开它们。整个计划实施得太慢了。
来源 : 回声报