尝试向 Siri 询问您的性别,智能助手会告诉您它没有性别,就像市场上的大多数语音助手一样。然而,从她的名字来看,她的女性身份是毫无疑问的,即使它也可以用男性声音来表示。家乐福的 Léa 是该市场的最新成员之一,她很快将帮助顾客管理他们的购物清单。但也已经存在亚历克斯(亚马逊),科塔娜(微软),同时谷歌助理目前在法国只能用女声收听。
这种情况是否可以解释为女性声音更容易发展?决不。甚至是相反的。“创造女性合成声音比男性声音更困难:声音频率通常更高、更尖锐、更具变化性;管理起来比较复杂”Nuance 副总裁、该公司语音合成负责人 Christophe Couvreur 解释道。 Nuance 因为 Siri 语音提供基础而闻名,同时也为许多银行、汽车制造商、智能手机制造商甚至电信运营商的语音助手提供了基础。
然而,Nuance 的客户要求主要倾向于女性的声音,但达美乐披萨或某些特定行业除外。这取决于预期的功能以及您想要对用户实现的效果。 Nuance 表示,如果您的智能助理承担全面服务职责,并且必须始终倾听您的声音,那么女性声音将会对其带来好处。如果他需要提供具体的建议和诸如抵押贷款之类的金钱问题,他就会被注入更多的睾丸激素。您是否开始认为这些是厌恶女性的刻板印象?你是对的。我们都无意识地成为陈词滥调的奴隶,因为我们首先等待……由女性服务。
我们都在等待女声的服务
一个学习是科技巨头之间关于该主题的参考。斯坦福大学传播学教授克利福德·纳斯 (Clifford Nass) 现已去世,他在 1997 年证明,我们对合成声音的反应因性别而异。在他的实验中,男性的声音被认为能激发更多的尊重和能力,而女性的声音在表现出权威时会受到怨恨,但在表现出同情心和善于交际时会受到积极的欢迎。这在今天仍然适用。
摆脱这些陈词滥调是非常困难的。原因很简单,因为我们生活在一个女性在个人护理行业占多数的社会,我们更经常对占据较低专业职位的女性发号施令,甚至因为她们在照顾和教育孩子方面承担更多责任。伴随着所有随之而来的幻想,从空姐到女仆,包括护士。但这不是唯一的原因。 “语音助手是由一群主要由白人、异性恋开发者组成的同质群体开发的,他们毫无问题地选择女性声音,因为这正是他们想听到的”伊莎贝尔·科莱 (Isabelle Collet) 是一位经过培训和训练的计算机科学家,她说道教育中性别问题专家。
科技巨头强化刻板印象
当我们询问微软为何专注于 Cortana 时,答案很明确。 “经过广泛的研究,我们发现女性的声音更符合用户的期望。 »但它是唯一一家诚实地做出自己选择的公司,苹果没有屈尊回应我们,而谷歌更愿意给我们一个稍微轻松的借口。“搜索引擎上已经可以找到女声了”,我们被告知。这并不能避免问题,因为确实一度决定专注于女性声音。考虑到上面引用的研究,这并不奇怪。科技公司并不是慈善家,他们会尽可能地让他们的产品为用户服务。不存在违背他们先入为主的想法而破坏他们稳定的问题。
问题在于,硅谷巨头们与公众合作,让问题变得更糟。«为语音助手提供女性声音就像一幅漫画。我们提供的是已经存在的刻板印象汤。所以强化它们必然存在风险””,伊莎贝尔·科莱强调道。足以让休伯特·奥克勒特中心感到震惊,该中心致力于性别平等,并于去年组织了一次会议标题为“美女与机器人。人工智能有性别歧视吗? »。
这个陷阱不仅适用于该类型。“对声音的刻板印象也适用于年龄和社会类别。像 Siri 这样的智能个人助理有 20 年的时间来给人留下充满活力的印象,而银行的助理则有 30 年的时间来激发信心。”,Christophe Couvreur 解释道。当然,除了每个国家的主导类别之外,不存在赋予他们地区或社会口音的问题。
遵循表情符号模式
发展中立的声音是否能找到解决方案,而这在今天是完全可能的?这就是 Nuance 在开发机器人时应 Aldebaran 公司的要求所做的尝试奈绪等胡椒。所需要的只是将女声改为男声。但这对伊莎贝尔·科莱来说并不是解决办法。“Nao 和 Pepper 是机器宠物。这可能并不适用于所有情况。中立不符合商业逻辑。当我们被卖东西时,当我们的潜意识能够识别出女性或男性时,我们的潜意识就会感到安心。”
Pepper 和她中性的声音
要遵循的模型宁愿是表情符号。 2011 年左右,它们开始流行时,只有白人异性恋男性的形象,被认为是普遍存在的。在过去的三年里,表情符号目录变得更加多样化,展示了各种颜色和年龄的皮肤,以及不同的性取向。因此,理想的情况是,当您第一次购买语音扬声器或第一次使用智能助手时,默认情况下不强加任何语音。我们可以选择适合我们的声音。这将是对抗陈规定型观念的第一步。然而,前提是社会也在同时发展。因为只要女性在社会中的地位不发生变化,我们就会继续期望语音助手符合我们周围的刻板印象。