必填项审计缉毒局 (DEA) 和联邦调查局 (FBI) 努力整合人工智能,例如生物识别面部识别和其他新兴技术,这极大地提高了隐私和需要仔细审查这两个机构的举措。
这份长达 34 页的审计报告(根据 2023 年国防授权法案的规定,由司法部 (DOJ) 监察长 (IG) 执行)发现,FBI 和 DEA 对人工智能的整合充满了道德困境,监管不足以及对个人自由的潜在影响。
监察长表示,将人工智能融入 DEA 和 FBI 的行动有望增强情报能力,但也给隐私和公民权利带来了前所未有的风险。
正如监察长审计中所述,这两个机构的新兴人工智能举措体现了技术进步与保护个人自由之间的紧张关系。当 FBI 和 DEA 应对这些挑战时,他们必须优先考虑透明度、问责制和道德治理,以确保人工智能在不损害基本权利的情况下为公共利益服务。
虽然 DEA 和 FBI 已开始将人工智能和生物特征识别整合到其情报收集和分析流程中,但 IG 报告强调,这两个机构都处于这种整合的初级阶段,并面临行政、技术和政策相关的挑战。这些困难不仅减缓了人工智能的整合,而且还加剧了人们对确保人工智能的道德使用的担忧,特别是在隐私和公民自由方面。
最重要的挑战之一是商业人工智能产品缺乏透明度。 IG 报告指出,供应商经常将人工智能功能嵌入到他们的软件中,从而创建一个黑匣子场景,其中包括 FBI 在内的用户无法了解算法如何运行或做出决策。软件物料清单 (SBOM)(软件组件的综合列表)的缺失使问题变得更加复杂,引发了重大的隐私问题,因为敏感数据可能会通过不透明的算法进行处理,从而可能导致滥用或未经授权的监视。
“FBI 人员……表示,大多数商用人工智能产品的软件组件都没有足够的透明度,”IG 表示,并指出“FBI 无法确定地知道产品中是否存在此类人工智能功能,除非FBI 收到 SBOM。”
监察长表示,“SBOM 仍然不常见”,并且“未公开的嵌入式人工智能工具可能会导致 FBI 人员在不知不觉中利用人工智能功能,并且这些工具并未受到 FBI 人工智能治理的影响。”此外,一位联邦调查局官员对供应商不需要对其产品进行独立测试来验证嵌入式人工智能功能中使用的数据模型的准确性表示担忧。”
FBI 人工智能道德委员会 (AIEC) 的成立是为了确保遵守道德原则和联邦法律,但在审查和批准人工智能用例方面面临大量积压。 2024 年,等待审查的积压平均为 170 天,凸显了系统效率低下,可能会延迟针对隐私侵犯的保护措施。此外,虽然 AIEC 的道德框架符合国家情报总监办公室 (ODNI) 的指导方针,但不断变化的政策环境带来了不确定性,推迟了关键决策,并导致不遵守新法规的风险。
在国家安全背景下部署人工智能也引发了尖锐的民权问题,特别是关于潜在的种族或民族偏见。类似的工具经常因错误识别来自边缘化社区的个人的倾向而受到审查,这就是这些风险的例证。 FBI 和 DEA 必须承担国家安全和执法的双重任务,这意味着人工智能应用程序通常会在个人自由面临高风险的环境中运行。
尽管联邦调查局已采取措施记录人工智能用例并制定总体治理政策,但道德考虑因素不完全融入操作工作流程会带来风险。如果没有强有力的监督机制和透明度,人工智能系统可能会促进无根据的监视,削弱公众的信任,并违反宪法对不合理搜查和扣押的保护。
DEA 对人工智能的使用使情况进一步复杂化。由于其唯一的人工智能工具来自外部,缉毒局严重依赖美国情报界的其他要素,限制了其对该工具设计和实施的控制。这种依赖不仅限制了问责制,而且还使 DEA 的运营面临第三方人工智能系统固有的风险,包括可能不公平地针对特定群体的偏见。
两家机构都将招聘和保留挑战视为负责任地采用人工智能的重大障碍。监察长表示,由于无法吸引技术人才,特别是有能力解决人工智能道德和法律影响的人才,导致各机构降低风险的能力存在差距。此外,“许多拥有适当技术技能的人无法通过背景调查,”监察长报告说。
预算限制进一步阻碍了人工智能工具的获取和独立测试,增加了对具有未知偏见或限制的商用系统的依赖。
监察长表示,联邦调查局人员指出,“在没有研发预算的情况下测试和部署新系统可能具有挑战性,因为当支持任务的操作如此重要时,很难证明使用有限的资金来测试未经验证的技术是合理的。这与其他情报机构形成鲜明对比,据联邦调查局官员称,其他情报机构拥有研发预算,可以测试和部署新技术。在无法获得内部资金的情况下,联邦调查局人员已向国家情报总监办公室提交了提案,但这些资金来源并没有得到保证。”
IT 基础设施现代化是另一个关键障碍。遗留系统阻碍了人工智能的集成,而数据架构的不足则加剧了与数据质量和安全相关的问题。管理不善的数据系统可能会无意中使敏感的个人信息遭到泄露或滥用,从而进一步危及隐私和公民权利。
IG 的报告称:“由于资源有限且缺乏战略规划,联邦机构常常难以确保数据架构保持现代化,而是使用过时的信息系统,即使这些系统本身需要大量资源来维护。” “此类系统可能会阻碍向人工智能的发展,因为它们可能难以与新技术集成,缺乏现代数据科学任务所必需的功能,难以处理当今庞大而复杂的数据集,并且通常需要用户更多的时间和手动工作。 FBI 人员还指出,数据和人工智能工具跨机密级别的移动非常复杂,需要额外的资金来解决。”
“此外,”监察长表示,“获取高质量数据对于组织通过实施流程确保传入数据准确、一致和相关,利用数据进行决策至关重要。
监察长强调了联邦调查局和缉毒局可以采取的一系列行动来解决审计提出的问题。一方面,两个机构都应该评估如何以合乎道德的方式有效地整合人工智能,以改善情报收集,同时保护个人权利。此外,加强 AIEC 和类似机制,提供足够的资源来应对人工智能采用的增加,对于维护道德标准至关重要。
对所有人工智能工具强制执行 SBOM 和独立测试将确保 FBI 和 DEA 以及其他机构能够验证其应用程序的安全性和合法性。此外,监察长还建议实施例行评估,以评估人工智能工具对公民自由的潜在影响,特别是在监视环境中。
文章主题
|||||||||