期待已久的報告成立已近一年的美國兩黨眾議院人工智慧工作小組應該呼籲採取行動,解決人工智慧帶來的緊迫的隱私和公民權利挑戰。該報告旨在成為國會為解決人工智慧技術進步而採取的未來行動的藍圖,強調了與人工智慧系統的快速開發和採用直接相關的關鍵隱私和公民權利問題。
這份長達273 頁的報告指出,「人工智慧具有巨大的潛力,可以使社會和經濟變得更好,並解決複雜的國家挑戰。」但它也斷言,「人工智慧可能被濫用並導致各種類型的傷害。
該報告包含 66 項主要調查結果和 89 項建議。
雖然人工智慧在各個領域提供了變革潛力,但其部署引起了人們對資料隱私、歧視、透明度和問責制的嚴重擔憂,這些問題對於美國制定負責任的人工智慧治理之路至關重要。報告稱,透過優先考慮這些問題,美國可以在人工智慧系統的負責任開發和部署方面發揮領導作用。
該工作小組於2 月成立,有24 名成員,其中12 名共和黨人和12 名民主黨人,全部來自20 個委員會,以確保對所解決的眾多人工智慧問題承擔全面的管轄責任,「並從一系列不同的見解和觀點中受益」。
報告中強調的主要問題之一是資料隱私。人工智慧系統通常依賴大量數據,其中可能包括敏感的個人資訊。報告強調,當這些系統在政府和私部門環境中使用時,侵犯隱私的風險會更加複雜。目前的框架(例如 1974 年《隱私法》)提供了一些保護,但現代人工智慧技術的動態和普遍性需要更強大的保護措施。這包括解決對未經授權的資料存取的擔憂,確保資料匿名,以及在人工智慧系統中實施隱私設計原則。
該報告強調了這樣一個事實:“美國沒有全面的聯邦數據隱私和安全法。”
該報告強調了人工智慧如何加劇現有的隱私損害,通常使個人的追索途徑有限。人工智慧系統收集和利用數據的失誤導致了傷害事件,例如由於臉部辨識系統有缺陷而導致錯誤逮捕。報告稱,此類問題顯示在沒有充分監督或問責機制的情況下部署人工智慧的危險。這些例子重新引發了人們對制定全面的聯邦隱私法的呼聲,這些法律既是技術中立的,又適用於各個部門,以搶佔不同的州法規。
健康科技公司 Premier Inc. 政府事務高級副總裁 Soumi Saha 表示,工作小組的建議「與 Premier 長期以來倡導的健康人工智慧合理監管護欄保持一致。總理讚賞工作小組對人工智慧在減輕行政負擔和改善病患照護方面的變革能力的認可。然而,為了充分實現即時電子事先授權等創新帶來的改變生活的好處,國會必須解決分散的州資料隱私法問題,這些法律阻礙了這項技術的規模化發展。聯邦資料隱私標準對於確保一致的保護、促進公平存取和有效擴展人工智慧驅動的解決方案至關重要。
公民權利和自由在人工智慧的應用中同樣受到威脅。正如報告指出的那樣,設計不當或濫用的人工智慧系統可能會導致歧視性結果。這種擔憂在刑事司法、住房、就業和金融服務等領域尤其嚴重,這些領域使用人工智慧模型來做出可能嚴重影響個人生活的決策。
特別工作小組發現,有缺陷的人工智慧系統可能會無意中編碼或延續訓練資料中存在的偏見,從而導致不公平的結果。報導稱,“人工智慧系統中的偏見可能導致有害行為或負面後果,並產生無根據、不受歡迎或非法的決定。”例如,基於某人的一項或多項受保護的特徵(例如某人的種族、性別或退伍軍人身分)做出對某人不利的決定。例如,由於資料集存在偏見,某些招募演算法已被證明會使來自代表性不足群體的候選人處於不利地位。
「系統性偏見是由特定機構的程序和做法造成的,它們可能不是有意識的歧視,但可能使某些社會群體處於不利地位。這些偏差可以反映在用於訓練人工智慧系統的資料集中,而人工智慧開發和部署的規範和實踐卻沒有解決這些偏差。
此外,該報告還表示,「當人工智慧系統訓練的數據不能代表相關人群時,就會出現錯誤,從而導致統計和計算偏差。當演算法針對一種類型的資料進行訓練並且無法準確地推斷出超出該類型的資料時,就會出現這些偏差。
「最後,」報告稱,「人類偏見可能是由常見的認知現象引起的,例如錨定偏見、可用性啟發法或適應性心理捷徑產生的框架效應,但可能導致認知偏見。這些錯誤通常是隱性的,會影響個人或群體對訊息的感知和行動。
為了減輕此類風險,該報告主張在高風險的人工智慧決策過程中進行人工監督。這種「人機互動」方法確保人工智慧系統提供的決策由能夠識別和糾正潛在偏見或錯誤的個人進行審查。此外,部門監管機構必須配備專業知識和工具來評估和解決各自領域內與人工智慧相關的風險。賦予這些監管機構權力對於維護公平和問責至關重要。
然而,報告指出,「在討論人工智慧中的偏見時,重要的是要記住,並非所有偏見都是有害的,也並非所有人工智慧偏見都是由於人類偏見……並非所有偏見本質上都是有害的。分析中出現的統計和計算偏差是數據科學、機器學習和一些最流行的當代人工智慧技術的正常和預期的一部分。
透明度是解決人工智慧治理中隱私和公民權利問題的另一個基石。報告指出:「如果人工智慧系統具體如何產生其輸出沒有足夠的透明度,人們必須在部署人工智慧系統時對其進行評估,以確定它是否有可能產生歧視性決策。人工智慧系統如何產生輸出、這些輸出在人類決策中發揮什麼作用,或者如何糾正這些缺陷,可能並不總是那麼明顯。
該報告強調了讓公眾了解人工智慧系統如何使用的重要性,特別是在政府運作中。例如,當人工智慧在影響公民的決策中發揮作用時,應該通知公民。透明機制(例如記錄資料來源、模型開發流程和決策標準)至關重要。報告稱,這些措施不僅能建立公眾信任,還能實現有效監督。
然而,透明度必須與安全和專有資訊的考慮相平衡。特別工作小組指出,雖然完全公開揭露可能並不總是可行,但內部文件和機構間協調可以確保人工智慧系統遵守道德標準而不損害敏感資訊。
該報告還強調需要更新技術標準和評估,以解決人工智慧中的隱私和公民權利問題。美國國家標準與技術研究院 (NIST) 開發了一個自願的人工智慧風險管理框架,以指導利害關係人識別和減輕風險。儘管該框架提供了理論基線,但工作小組認識到需要針對特定人工智慧應用制定更全面的標準,這些標準應納入針對偏見和歧視潛力的穩健測試。
此外,該報告呼籲聯邦政府投資於研發,以推動隱私增強技術。差分隱私、安全多方計算和聯邦學習等技術可以讓人工智慧系統在不暴露敏感資訊的情況下處理資料。報告稱,支持這些創新對於使人工智慧部署與民權保護保持一致至關重要。
聯邦先發制人在人工智慧治理中的作用是另一個關注領域。雖然涉及人工智慧和資料隱私的州法律不斷湧現,但工作小組建議統一的聯邦方法可以提供清晰度和一致性。聯邦先發制人可以協調監管框架,防止各州法律拼湊在一起,阻礙創新或為跨州經營的企業帶來合規挑戰。然而,這種方法必須仔細考慮國家標準與各州解決當地獨特問題的能力之間的平衡。
該工作組的建議也涉及教育和勞動力發展。專家小組表示,彌合人工智慧人才差距對於開發和實施符合道德的人工智慧系統至關重要。提高教育機構和勞動力的人工智慧素養的努力可以讓更多的人為人工智慧創新做出貢獻,同時防止其濫用。
工作小組也解決了線上內容真實性問題,並表示「不良行為者可以利用合成內容進行詐欺、傳播虛假訊息並針對個人」。解決這些危害很重要,也必須在保護第一修正案權利的背景下進行。
如果主要的隱私和安全問題得到解決,數位身份技術可能允許一個人在網路上向其他用戶和線上平台證明自己的身份,」報告稱,並指出「一旦該人的身份得到驗證,就更容易減少欺詐行為透過他們創建、修改或傳播的數位內容。
透過優先考慮透明度、問責制和公平,美國可以引領人工智慧系統負責任的開發和部署,但政策制定者、監管機構和利害關係人必須共同努力,創造一個創新蓬勃發展的環境,同時保護個人權利和社會價值。
文章主題
||||||