AI应该是技术成就的巅峰之作 - 有机会坐下来让机器人完成工作。虽然AI确实比任何人都更快,更准确地完成了复杂的任务和计算,但它正在塑造需要一些监督。
随着它演变为计算高度复杂而曲折的如果决定的决定,那么一点点的人类开始逐渐消失。但是,从一开始就将使用人类作为老师作为老师的机器学习是有缺陷的。人类偏见会影响AI系统,特别是在自动化流程审查贷款申请的方式中。
偏见如何发生?
从理论上讲,机器人应该是客观的,远远超过控制肉体世界的偏见。那么,为什么机器表现出明显的人类行为?要认识到AI偏见的重要性,重要的是要了解人类如何对这些系统介绍偏见。
机器学习依赖于数据以及大量数据 - 因此AI可以做出准确的预测。尽管数字被认为是黑白概念,但是当人们收集时,没有数据是非政治性的。
通常,有一群人“喂”机器数据集供其学习。让我们以Google的图像识别工具为例。它依靠图像分类算法正确标记猫的图片。
这种算法背后的人选择通过使用尖齿的耳朵,大杏仁形的眼睛和锋利的犬类来教授猫的视觉特征。该机器在查看图像时将能够推断这些标准,并成功识别那些共享相同功能的标准。
在此以及AI的其他所有实例中,数据的大小和多样性都是必不可少的。提供机器基础知识的数据越多,将来成功运作的可能性就越大。如果没有足够的数据,或者更令人担忧的是,当数据没有特定的数据时,AI将无法准确执行。
算法偏见是一个人为问题
算法偏见当工程师和科学家不考虑不完整的数据集时,就会发挥作用。如果Google的成像工具从一个主要数据集中学习,该数据集包括猫的嘴巴张开和犬犬,那么该工具将难以闭合猫来识别猫。
技术界有几个算法偏见的例子。在Microsoft的AI聊天机器人Tay使用Twitter作为学习工具之后,成为纳粹性生物可能。 Google的图像识别工具将黑人标记为大猩猩,而翻译服务则将男性代词归因于专业职业,当时用性别中立代词翻译句子。
最近,亚马逊不得不努力AI招聘工具对于类似的缺陷。它的计算机模型从过去10年开始对Résumé数据进行了培训,这是大多数申请人是男性的时期。 AI留在自己的设备上,介绍了大部分由男人组成的申请人。
亚马逊的AI将男性简历的模式确定为对男性候选人的偏爱,而不是对科技行业中妇女和少数民族的固有偏见。它调整了其选择过程以反映这种偏爱。
金融界不安全
传统上,面向技术的公司并不是唯一为这些问题而苦苦挣扎的公司。金融行业是许多转向技术(和AI)来简化包括在线贷款申请的服务的人之一。
接管贷款空间的AI平台可能会损害传统银行模型在传统上服务不足的少数群体,因为结构性种族主义创建了使有色人种的人民剥夺合意特权的数据集。
银行的红线的实践某些社区(换句话说,由于种族人口的人群而否认这些社区的金融服务)始于30年代,但它继续对这些社区产生影响。
人口普查数据表明,黑人和西班牙裔美国人比白人或亚裔美国人更有可能被账单上的账单不足或被剥夺传统银行服务。抵押贷款中的种族差距显示黑色和西班牙裔借款人更有可能拒绝他们的申请比白人。
机器很有可能将这些数据点与其他黑人和西班牙裔申请人联系起来,并否认他们的服务,即使他们有资格获得在线贷款。没有人类干预,AI将陷入反馈循环:预测有色人种的贷款越来越多。
对于这些脆弱的人群来说,重要的是了解现代借款选择这平衡了人工智能的可能性和更具人为的方法。尽管他们提供越来越多的在线平台向现有贷款提交贷款申请和服务,但他们遵循一个程序,涉及实际的人类审查和批准分期付款贷款申请。
但是也许更重要的是,银行系统必须认识到偏见影响其AI的机器和深度学习的潜力很重要。人工智能并不可靠。尽管它比以前的任何人都快,但它仅与使用的信息一样有价值。如果允许从没有干涉的社会偏见的数据集中学习,它将产生反映它的信息。
凯茜·奥尼尔(Cathy O'Neil),《数学破坏武器:大数据如何增加不平等和威胁民主》的作者,说有危险在收集数据的情况下而无需解决可能的偏见。
“当我们在历史数据上训练算法时,在很大程度上,我们将自己只重复过去。...我们需要做更多的事情,这意味着要检查数据中嵌入的偏见。”
在每种算法的背后,都有人。尽管他们可能不打算创建具有偏见的AI,但如果他们不将文化智能应用于数据的范围和表述,他们将会。在不调整历史和文化偏见的情况下,他们的算法将对人们在紧急情况下获得个人贷款的能力产生严重影响。