必需的审计毒品执法局(DEA)和联邦调查局(FBI)为整合AI(例如生物特征识别识别和其他新兴技术)的努力,提高了明显的隐私和担心需要仔细检查两个机构的举措。
这份长达34页的审计报告是由2023年《国防授权法》授权的,该法案将由司法部(DOJ)监察长(IG)执行,发现FBI和DEA对AI的整合充满了道德困境,法规的不足以及对个人自由的潜在影响。
IG表示,将AI整合到DEA和FBI的行动中有望增强情报能力,但它也为隐私和公民权利带来了前所未有的风险。
如IG审计所述,这两个机构的新生AI计划说明了技术进步与维护个人自由之间的张力。随着联邦调查局和DEA遇到这些挑战,他们必须优先考虑透明度,问责制和道德治理,以确保AI在不损害基本权利的情况下为公众提供服务。
尽管DEA和FBI已开始将AI和生物识别识别整合到其智能收集和分析过程中,但IG报告强调了这两个机构都处于这种整合的衰落阶段,并且面对了与政策,技术和政策相关的挑战。这些困难不仅减慢了人工智能的整合,而且还加剧了人们对确保AI道德使用的担忧,尤其是在隐私和公民自由方面。
最重要的挑战之一是缺乏与市售AI产品相关的透明度。 IG报告指出,供应商经常在其软件中嵌入AI功能,从而创建一个黑框方案,其中包括联邦调查局在内的用户缺乏对算法的功能或做出决策的可见性。缺少软件材料清单(SBOM)(软件组件的全面列表)使问题更加复杂,因此可以通过不透明的算法处理敏感的数据,从而提出了重大的隐私问题,可能会导致滥用或未经授权的监测。
IG说:“联邦调查局的人员……指出,大多数市售的AI产品没有足够的软件组件透明度。”
IG说“ SBOM仍然很常见”,并且“未公开的AI工具可能会导致FBI人员在不知不觉中使用AI功能,并且没有这种工具,但没有受到FBI的AI治理的影响。此外,联邦调查局官员对不需要对其产品进行独立测试以验证嵌入式AI功能中使用的数据模型的准确性的事实表示关注。”
联邦调查局的AI伦理委员会(AIEC)旨在确保遵守道德原则和联邦法律,在审查和批准AI用例时面临着巨大的积压。这项积压待办事项在2024年平均进行了170天的待评审查,强调了系统性无效,可能会延迟侵犯隐私行为的保障。此外,尽管AIEC的道德框架与国家情报主任办公室(ODNI)办公室的指南保持一致,但不断发展的政策景观却造成了不确定性,延迟关键决策并留下了不遵守新兴法规的风险。
在国家安全背景下,AI的部署也引发了严重的民权问题,特别是关于种族或种族偏见的潜力。类似的工具,经常审查他们误认为来自边缘化社区的个人的倾向,体现了这些风险。联邦调查局和DEA必须驾驶国家安全和执法的双重任务,这意味着AI应用程序通常会在具有高股份的个人自由的情况下运作。
尽管联邦调查局已经开始了记录AI用例并制定总体治理政策的步骤,但将道德注意事项不完整地集成到运营工作流程中会带来风险。没有强大的监督机制和透明度,AI系统可以促进不必要的监视,侵蚀公众信任并违反宪法保护,以防止不合理的搜查和癫痫发作。
DEA对AI的使用进一步使图片复杂化。 DEA凭借其唯一的AI工具从外部采购,严重依赖其他美国情报界的元素,从而限制了其对工具的设计和实现的控制。这种依赖不仅限制了问责制,而且还将DEA操作暴露于第三方AI系统固有的风险,包括可能不公平地针对特定组的偏见。
这两个机构都认为招聘和保留挑战是负责任地采用AI的重大障碍。 IG说,无法吸引技术人才,特别是能够解决AI道德和法律含义的个人,这使机构减轻风险的能力留出了差距。此外,IG报道,“许多具有正确技术技能的人无法通过背景调查”。
预算限制进一步阻碍了对AI工具的获取和独立测试,从而增加了对具有未知偏见或限制的市售系统的依赖。
IG表示,联邦调查局人员指出:“在没有研发预算的情况下,测试和部署新系统可能具有挑战性,因为在支持任务的运营时,很难证明使用有限的资金来测试未经证实的技术是如此关键。这与其他情报机构(根据FBI官员的说法)相反,该机构具有使他们能够测试和部署新技术的研发预算。如果没有内部资金,联邦调查局的人员已向ODNI提交了建议,但不能保证那些资金来源。”
现代化IT基础设施是另一个关键障碍。传统系统阻碍了AI的集成,并且数据体系结构不足加剧了与数据质量和安全性有关的问题。管理不善的数据系统可能会无意间暴露于违规或滥用,进一步危害隐私和公民权利。
IG报告说:“由于资源有限和缺乏战略规划,联邦机构通常会努力确保数据架构保持现代状态并使用过时的信息系统,即使这些系统本身需要大量资源来维护。” “这样的系统可能会挫败向AI的搬迁,因为它们可能很难与新技术集成,缺乏现代数据科学任务所必需的功能,难以处理当今的大型且复杂的数据集,并且通常需要更多的时间和手动努力。联邦调查局人员还指出,数据和AI工具跨分类级别的移动很复杂,需要额外的资金才能解决。”
IG说:“此外,捕获质量数据是至关重要的,可以通过实施流程来确保传入的数据是准确,一致和相关的。
IG强调了FBI和DEA可以采取的许多行动来解决审计提出的问题。一方面,两个机构都应评估如何在道德上有效地整合AI,以改善情报收集,同时保护个人权利。同样,通过足够的资源来加强AIEC和类似的机制来处理增加的AI采用对于保持道德标准至关重要。
对所有AI工具进行SBOM和独立测试将确保FBI和DEA以及其他机构可以验证其应用程序的安全性和合法性。此外,IG建议实施常规评估,以评估AI工具对公民自由的潜在影响,尤其是在监视环境中。
文章主题
|||||||||