白宫国内政策委员会总统兼副局长兼副局长在新布鲁金斯机构中说评论国会应制定立法,以解决AI歧视如何“影响人们的权利和机会”。
在工作场所,市场,医疗保健和刑事司法系统中有“算法歧视”,他写道,布鲁金斯地铁的非居民高级研究员,民主基金的顾问,专门从事AI,民主和政府计划,以提高公平和机会。
贝恩斯说:“ AI可以并且确实会产生歧视性结果,”他指出,“ AI通过使用算法来处理和识别大量数据中的模式,然后使用这些模式在给出新信息时做出预测或决策。”
AI歧视,也称为算法歧视,是自动化系统以不同的方式对待人员或以不合理和基于受保护的特征的方式影响他们的时候。这可以包括种族,颜色,种族,性别,宗教,年龄,国籍,残疾,退伍军人地位或遗传信息。
为了防止AI歧视,自动化系统的设计师,开发人员和部署者应采取积极的措施,例如使用代表性数据,确保对残疾人的可及性,测试和缓解部署前后的差距,并具有明确的组织监督。
贝恩说:“研究人员和技术人员反复证明算法系统可以产生歧视性产量。有时,这是对未代表性数据进行培训的结果。在其他情况下,算法会在训练数据中发现并复制人类歧视的隐藏模式。”
贝恩斯说:“随着人工智能的发展加速,正当专注于该技术引起或加剧歧视的潜力。决策者正在考虑采取多种保护,不受AI产品的披露和审计要求,以禁止在敏感的情况下使用AI的限制。不同的影响。”
不同的影响法律为基于种族,性别或其他受保护特征的歧视受害者的人提供了法律补救措施。
贝恩斯说:“这种形式的责任对于防止歧视的歧视至关重要。
根据美国法律,有26个联邦资助机构有VI标题法规,其中包括针对不同影响或歧视性效果法律标准的规定。
根据对于美国司法部(DOJ)民权部门而言,越来越多的社会心理学研究也重申了对解决不同影响的法律工具的需求。这项研究表明,对有色人种的人的隐性偏见仍然是一个普遍存在的问题。这种偏见仍然可以导致歧视,从而导致联邦机构能够通过执行脱节的法规来防止和解决法规。”
司法部说:“由于个人动机可能很难直接证明,因此国会经常允许仅证明歧视性影响,作为克服歧视性实践的一种手段。因此,最高法院已经认识到,根据各种民权法,根据各种民权法,“允许宣传”“允许宣传来避免对避免抗衡的构造作为避免抗衡的鉴定性鉴定性地归类。
白宫科学技术政策办公室(OSTP)AI权利法案的蓝图说:“根据特定情况……算法歧视可能违反法律保护。设计师,开发人员和自动化系统的部署者应采取积极而连续的措施来保护个人和社区,以保护个人和社区免受算法歧视,并免受算法歧视,并以公平的方式使用和设计系统。该保护应包括在内的依据。残疾人在设计和开发中的可及性,预部部署和持续的差异测试和缓解以及清除组织的监督。”
大型语言模型(LLM)AI“开发人员试图减轻偏见贝恩斯说:“通过训练后的方法,例如微调和加强人类的反馈学习,”,但补充说:“早期的研究表明,LLMS确实产生了刻板印象和偏见的结果。”
贝恩斯指出:“例如,在一项研究中,LLM倾向于将成功的女性与同理心和耐心联系起来,而成功的男人具有知识和智力。”在另一项研究中,LLM“将穆斯林与恐怖主义和暴力相关联。在另一位llms中,LLM将“黑色”一词与武器和术语相关联,同时将“白色”一词与无害的物品和术语相关联。”
贝恩斯警告说:“基于方案的测试表明,随着LLM的融合到现实世界的决策系统中,这种关联如何引起歧视。”
贝恩斯说:“不同的影响责任有助于根除无意但不合理的歧视”,这是“正是AI的风险”和“我们需要不同的影响责任的原因”。 “不同的影响使我们能够解决由无意识或过于广泛的政策产生的大量有害和不必要的歧视。”
贝恩斯倡导者说:“不同的影响使我们能够预防和解决算法歧视。
贝恩斯认为,国会需要通过立法“加强不同的影响保护和执法。
他说:“首先,国会应制定一项联邦法律,该法律禁止歧视(特别是包括不同的影响)在部署AI和其他自动化技术时。这些立法应涵盖使用算法来制定或为影响人民权利和机会的决策提供决定。”
其次,国会需要将“私人行动权允许遭受歧视提起诉讼的个人”和“第三,国会应大大增加为联邦执法机构的资金。”
贝恩说:“这些新的当局和资源不是算法歧视的灵丹妙药,我们需要全面的隐私立法,AI治理标准,透明度要求以及其他许多措施。”
他说:“我们需要我们的决策者才能开始并确定强大的责任规则。” “我们必须加强法律体系在AI纳入经济范围内的权利影响系统之前预防歧视的能力。下一任总统和国会应优先制定2025年初对AI的全面不同影响规则。”