必填項審計緝毒局 (DEA) 和聯邦調查局 (FBI) 努力整合人工智慧,例如生物辨識臉部辨識和其他新興技術,這極大地提高了隱私和需要仔細審查這兩個機構的舉措。
這份長達 34 頁的審計報告(根據 2023 年國防授權法案的規定,由司法部 (DOJ) 監察長 (IG) 執行)發現,FBI 和 DEA 對人工智慧的整合充滿了道德困境,監管不足以及對個人自由的潛在影響。
監察長表示,將人工智慧融入 DEA 和 FBI 的行動有望增強情報能力,但也為隱私和公民權利帶來了前所未有的風險。
正如監察長審計中所述,這兩個機構的新興人工智慧措施體現了技術進步與保護個人自由之間的緊張關係。當 FBI 和 DEA 應對這些挑戰時,他們必須優先考慮透明度、問責制和道德治理,以確保人工智慧在不損害基本權利的情況下為公共利益服務。
雖然DEA 和FBI 已開始將人工智慧和生物特徵識別整合到其情報收集和分析流程中,但IG 報告強調,這兩個機構都處於這種整合的初級階段,並面臨行政、技術和政策相關的挑戰。這些困難不僅減緩了人工智慧的整合,而且還加劇了人們對確保人工智慧的道德使用的擔憂,特別是在隱私和公民自由方面。
最重要的挑戰之一是商業人工智慧產品缺乏透明度。 IG 報告指出,供應商經常將人工智慧功能嵌入他們的軟體中,從而創建一個黑盒子場景,其中包括 FBI 在內的用戶無法了解演算法如何運作或做出決策。軟體物料清單(SBOM)(軟體元件的綜合清單)的缺失使問題變得更加複雜,引發了重大的隱私問題,因為敏感資料可能會透過不透明的演算法進行處理,這可能會導致濫用或未經授權的監視。
「FBI 人員…表示,大多數商用人工智慧產品的軟體元件都沒有足夠的透明度,」IG 表示,並指出「FBI 無法確定地知道產品中是否存在此類人工智慧功能,除非FBI 收到SBOM。 」
監察長表示,“SBOM 仍然不常見”,並且“未公開的嵌入式人工智慧工具可能會導致 FBI 人員在不知不覺中利用人工智慧功能,並且這些工具並未受到 FBI 人工智慧治理的影響。”此外,一位聯邦調查局官員對供應商不需要對其產品進行獨立測試來驗證嵌入式人工智慧功能中使用的數據模型的準確性表示擔憂。
FBI 人工智慧道德委員會 (AIEC) 的成立是為了確保遵守道德原則和聯邦法律,但在審查和批准人工智慧用例方面面臨大量積壓。 2024 年,等待審查的積壓平均為 170 天,凸顯了系統效率低下,可能會延遲針對隱私侵犯的保護措施。此外,雖然 AIEC 的道德框架符合國家情報總監辦公室 (ODNI) 的指導方針,但不斷變化的政策環境帶來了不確定性,推遲了關鍵決策,並導致不遵守新法規的風險。
在國家安全背景下部署人工智慧也引發了尖銳的民權問題,特別是關於潛在的種族或民族偏見。類似的工具經常因錯誤識別來自邊緣化社區的個人的傾向而受到審查,這就是這些風險的例證。 FBI 和 DEA 必須承擔國家安全和執法的雙重任務,這意味著人工智慧應用程式通常會在個人自由面臨高風險的環境中運行。
儘管聯邦調查局已採取措施記錄人工智慧用例並制定整體治理政策,但道德考慮因素不完全融入操作工作流程會帶來風險。如果沒有強有力的監督機制和透明度,人工智慧系統可能會促進無根據的監視,削弱公眾的信任,並違反憲法對不合理搜查和扣押的保護。
DEA 對人工智慧的使用使情況更加複雜。由於其唯一的人工智慧工具來自外部,緝毒局嚴重依賴美國情報界的其他要素,限制了其對該工具設計和實施的控制。這種依賴不僅限制了問責制,而且還使 DEA 的運作面臨第三方人工智慧系統固有的風險,包括可能不公平地針對特定群體的偏見。
兩家機構都將招募和留任挑戰視為負責任地採用人工智慧的重大障礙。監察長表示,由於無法吸引技術人才,特別是有能力解決人工智慧道德和法律影響的人才,導致各機構降低風險的能力有差距。此外,「許多擁有適當技術技能的人無法通過背景調查,」監察長報告說。
預算限制進一步阻礙了人工智慧工具的取得和獨立測試,增加了對具有未知偏見或限制的商用系統的依賴。
監察長表示,聯邦調查局人員指出,「在沒有研發預算的情況下測試和部署新系統可能具有挑戰性,因為當支援任務的操作如此重要時,很難證明使用有限的資金來測試未經驗證的技術是合理的。這與其他情報機構形成鮮明對比,據聯邦調查局官員稱,其他情報機構擁有研發預算,可以測試和部署新技術。在無法獲得內部資金的情況下,聯邦調查局人員已向國家情報總監辦公室提交了提案,但這些資金來源並沒有得到保證。
IT 基礎架構現代化是另一個關鍵障礙。遺留系統阻礙了人工智慧的集成,而資料架構的不足則加劇了與資料品質和安全相關的問題。管理不善的資料系統可能會無意中使敏感的個人資訊遭到洩露或濫用,進一步危及隱私和公民權利。
IG 的報告稱:“由於資源有限且缺乏戰略規劃,聯邦機構常常難以確保數據架構保持現代化,而是使用過時的信息系統,即使這些系統本身需要大量資源來維護。” 「此類系統可能會阻礙向人工智慧的發展,因為它們可能難以與新技術集成,缺乏現代數據科學任務所必需的功能,難以處理當今龐大而複雜的數據集,並且通常需要用戶更多的時間和手動工作。 FBI 人員還指出,數據和人工智慧工具跨機密級別的移動非常複雜,需要額外的資金來解決。
「此外,」監察長表示,「取得高品質資料對於組織透過實施流程確保傳入資料準確、一致且相關,利用資料進行決策至關重要。
監察長強調了聯邦調查局和緝毒局可以採取的一系列行動來解決審計提出的問題。一方面,兩個機構都應該評估如何以合乎道德的方式有效地整合人工智慧,以改善情報收集,同時保護個人權利。此外,加強 AIEC 和類似機制,提供足夠的資源來應對人工智慧採用的增加,對於維護道德標準至關重要。
對所有人工智慧工具強制執行 SBOM 和獨立測試將確保 FBI 和 DEA 以及其他機構能夠驗證其應用程式的安全性和合法性。此外,監察長也建議實施例行評估,以評估人工智慧工具對公民自由的潛在影響,特別是在監視環境中。
文章主題
|||||||||