期待已久的报告成立已近一年的美国两党众议院人工智能工作组应该呼吁采取行动,解决人工智能带来的紧迫的隐私和公民权利挑战。该报告旨在成为国会为解决人工智能技术进步而采取的未来行动的蓝图,强调了与人工智能系统的快速开发和采用直接相关的关键隐私和公民权利问题。
这份长达 273 页的报告指出,“人工智能具有巨大的潜力,可以使社会和经济变得更好,并解决复杂的国家挑战。”但它也断言,“人工智能可能被滥用并导致各种类型的伤害。”
该报告包含 66 项主要调查结果和 89 项建议。
虽然人工智能在各个领域提供了变革潜力,但其部署引起了人们对数据隐私、歧视、透明度和问责制的严重担忧,这些问题对于美国制定负责任的人工智能治理之路至关重要。报告称,通过优先考虑这些问题,美国可以在人工智能系统的负责任开发和部署方面发挥领导作用。
该工作组于 2 月成立,有 24 名成员,其中 12 名共和党人和 12 名民主党人,全部来自 20 个委员会,以确保对所解决的众多人工智能问题承担全面的管辖责任,“并从一系列不同的见解和观点中受益”。
报告中强调的主要问题之一是数据隐私。人工智能系统通常依赖大量数据,其中可能包括敏感的个人信息。报告强调,当这些系统在政府和私营部门环境中使用时,侵犯隐私的风险会更加复杂。当前的框架(例如 1974 年《隐私法》)提供了一些保护,但现代人工智能技术的动态和普遍性需要更强大的保护措施。这包括解决对未经授权的数据访问的担忧,确保数据匿名,以及在人工智能系统中实施隐私设计原则。
该报告强调了这样一个事实:“美国没有全面的联邦数据隐私和安全法。”
该报告强调了人工智能如何加剧现有的隐私损害,通常使个人的追索途径有限。人工智能系统收集和利用数据的失误导致了伤害事件,例如由于面部识别系统存在缺陷而导致错误逮捕。报告称,此类问题表明在没有充分监督或问责机制的情况下部署人工智能的危险。这些例子重新引发了人们对制定全面的联邦隐私法的呼声,这些法律既是技术中立的,又适用于各个部门,以抢占不同的州法规。
健康技术公司 Premier Inc. 政府事务高级副总裁 Soumi Saha 表示,工作组的建议“与 Premier 长期以来倡导的健康人工智能合理监管护栏保持一致。总理赞赏工作组对人工智能在减轻行政负担和改善患者护理方面的变革能力的认可。然而,为了充分实现实时电子事先授权等创新带来的改变生活的好处,国会必须解决分散的州数据隐私法问题,这些法律阻碍了这项技术的规模化发展。联邦数据隐私标准对于确保一致的保护、促进公平访问和有效扩展人工智能驱动的解决方案至关重要。”
公民权利和自由在人工智能的应用中同样受到威胁。正如报告指出的那样,设计不当或滥用的人工智能系统可能会导致歧视性结果。这种担忧在刑事司法、住房、就业和金融服务等领域尤其严重,这些领域使用人工智能模型来做出可能严重影响个人生活的决策。
特别工作组发现,有缺陷的人工智能系统可能会无意中编码或延续训练数据中存在的偏见,从而导致不公平的结果。报告称,“人工智能系统中的偏见可能导致有害行为或负面后果,并产生无根据、不受欢迎或非法的决定。”例如,基于某人的一项或多项受保护的特征(例如某人的种族、性别或退伍军人身份)做出对某人不利的决定。例如,由于数据集存在偏见,某些招聘算法已被证明会使来自代表性不足群体的候选人处于不利地位。
“系统性偏见是由特定机构的程序和做法造成的,它们可能不是有意识的歧视,但可能使某些社会群体处于不利地位。这些偏差可以反映在用于训练人工智能系统的数据集中,而人工智能开发和部署的规范和实践却没有解决这些偏差。”报告称。
此外,该报告还表示,“当人工智能系统训练的数据不能代表相关人群时,就会出现错误,从而导致统计和计算偏差。当算法针对一种类型的数据进行训练并且无法准确地推断出超出该类型的数据时,就会出现这些偏差。”
“最后,”报告称,“人类偏见可能是由常见的认知现象引起的,例如锚定偏见、可用性启发法或适应性心理捷径产生的框架效应,但可能导致认知偏见。这些错误通常是隐性的,会影响个人或群体对信息的感知和行动。”
为了减轻此类风险,该报告主张在高风险的人工智能决策过程中进行人工监督。这种“人机交互”方法确保人工智能系统提供的决策由能够识别和纠正潜在偏见或错误的个人进行审查。此外,部门监管机构必须配备专业知识和工具来评估和解决各自领域内与人工智能相关的风险。赋予这些监管机构权力对于维护公平和问责制至关重要。
然而,报告指出,“在讨论人工智能中的偏见时,重要的是要记住,并非所有偏见都是有害的,也并非所有人工智能偏见都是由于人类偏见……并非所有偏见本质上都是有害的。分析中出现的统计和计算偏差是数据科学、机器学习和一些最流行的当代人工智能技术的正常和预期的一部分。”
透明度是解决人工智能治理中隐私和公民权利问题的另一个基石。报告指出:“如果人工智能系统具体如何生成其输出没有足够的透明度,人们必须在部署人工智能系统时对其进行评估,以确定它是否有可能产生歧视性决策。人工智能系统如何产生输出、这些输出在人类决策中发挥什么作用,或者如何纠正这些缺陷,可能并不总是那么明显。”
该报告强调了让公众了解人工智能系统如何使用的重要性,特别是在政府运作中。例如,当人工智能在影响公民的决策中发挥作用时,应该通知公民。透明机制(例如记录数据源、模型开发流程和决策标准)至关重要。报告称,这些措施不仅能建立公众信任,还能实现有效监督。
然而,透明度必须与安全和专有信息的考虑相平衡。特别工作组指出,虽然完全公开披露可能并不总是可行,但内部文件和机构间协调可以确保人工智能系统遵守道德标准而不损害敏感信息。
该报告还强调需要更新技术标准和评估,以解决人工智能中的隐私和公民权利问题。美国国家标准与技术研究院 (NIST) 开发了一个自愿的人工智能风险管理框架,以指导利益相关者识别和减轻风险。尽管该框架提供了理论基线,但工作组认识到需要针对特定人工智能应用制定更全面的标准,这些标准应纳入针对偏见和歧视潜力的稳健测试。
此外,该报告呼吁联邦政府投资于研发,以推进隐私增强技术。差分隐私、安全多方计算和联邦学习等技术可以让人工智能系统在不暴露敏感信息的情况下处理数据。报告称,支持这些创新对于使人工智能部署与民权保护保持一致至关重要。
联邦先发制人在人工智能治理中的作用是另一个关注领域。虽然涉及人工智能和数据隐私的州法律不断涌现,但工作组建议统一的联邦方法可以提供清晰度和一致性。联邦先发制人可以协调监管框架,防止各州法律拼凑在一起,从而阻碍创新或给跨州经营的企业带来合规挑战。然而,这种方法必须仔细考虑国家标准与各州解决当地独特问题的能力之间的平衡。
该工作组的建议还涉及教育和劳动力发展。专家小组表示,弥合人工智能人才差距对于开发和实施符合道德的人工智能系统至关重要。提高教育机构和劳动力的人工智能素养的努力可以让更多的人为人工智能创新做出贡献,同时防止其滥用。
该工作组还解决了在线内容真实性问题,称“不良行为者可以利用合成内容进行欺诈、传播虚假信息并针对个人”。解决这些危害很重要,也必须在保护第一修正案权利的背景下进行。”
如果主要的隐私和安全问题得到解决,数字身份技术可能允许一个人在网上向其他用户和在线平台证明自己的身份,”报告称,并指出“一旦该人的身份得到验证,就更容易减少欺诈行为通过他们创建、修改或传播的数字内容。”
通过优先考虑透明度、问责制和公平,美国可以引领人工智能系统负责任的开发和部署,但政策制定者、监管机构和利益相关者必须共同努力,创造一个创新蓬勃发展的环境,同时保护个人权利和社会价值观。
文章主题
||||||