據民間社會專家討論了AI如何影響公民權利,需要通過法規,教育和透明度的結合來統治偏見的人工智能係統。他們說,部署諸如面部識別之類的技術對於理解其影響至關重要。
布魯金斯機構的Techtank播客在標題為:'的一集中解決了這個話題:'民權和人工智能:兩個概念可以共存? '。
主持人尼科爾·特納·李(Nicol Turner Lee)是治理研究高級研究員,技術創新中心主任,他在情節開始時多次說,面部識別導致了黑人男性和女人的錯誤逮捕,但這些案件和生物識別技術並不是該計劃的主要重點。
弗吉尼亞大學數據科學學院和麗莎·賴斯(Lisa Rice)的蕾妮·卡明斯(Renee Cummings)加入特納·李(Turner Lee),討論AI偏見,國家公平住房聯盟首席執行官Lisa Rice。
大米始於AI系統部署所產生的透明障礙以及市場上的深刻不平等,指的是美國法律和政治體系。
她說,必須對數據驅動的系統進行審查和“重塑”,以避免對消費者造成危害。
卡明斯(Cummings)指出了AI部署的潛在好處,以及潛在的風險。根據卡明斯(Cummings)的說法,算法已成為刑事司法系統內的高風險決策,並與“基於種族的法律”相撞。這些是編碼並設計到系統中的,也許是潛意識。
結果是“黑人作為風險的數據點”。
賴斯說,美國歷史上有成千上萬的基於種族的法律,而且大多數人都不知道這一事實,這阻礙了他們與種族背景算法有關的事實。
賴斯說:“因為人們不了解歷史,所以他們認為它不存在。”
對話將種族編碼變成了信用評分和郵政編碼,因此即使聲稱自己是種族敏捷的系統也可以使偏見永存,並且“數據創傷”的相關概念。同樣,作為尼克松政府公平住房工作的一部分,“不同影響”的概念涉及在應用中具有歧視性效果的法律或政策。
卡明斯說,儘管如此,AI也可以部署以解決這些差異,包括警務。提高透明度和預警系統可以警告偏離公認做法的官員。
在AI監視系統的背景下,簡要提及面部識別,
賴斯說,現有的民權法可以用來打擊許多現有的歧視實例,但與此同時,並非所有算法偏見的情況都可以訴訟。她說,聯邦監管機構未能跟上這項技術,這使技術成為下一個民權領域。
播客參與者說,對數據科學家的更好的測量和更好的教育可以幫助減少算法偏見。
歐盟以面部識別和其他被歸類為“高風險”的面部識別的調節算法的方法可以在美國對人權的承諾方面為指導提供指導。
這 '目的,過程和監視賴斯說,賴斯說,由國家公平算法公平性公平性公平性的框架可以廣泛應用,賴斯說,以及更好的審計系統,可以從使用AI的使用中帶來更好的結果。
錯誤逮捕和新政策
根據一項逮捕的許多逮捕,使用了面部識別。有線該文章描述了警察領先的證人和美國警察使用生物識別技術的透明度。
檢察官無需在識別犯罪嫌疑人,有線寫作時披露面部識別的使用,並且該技術不可作為證據。
錯誤逮捕的影響,即使是記錄最終糾正的逮捕,也是詳細的在另一篇有線文章中。
文章說,目擊者的錯誤識別是被DNA證據被免除的人們定罪的普遍原因。
一名公共辯護人告訴韋德,警察經常掩飾使用面部識別來通過將身份歸因於證人來識別嫌疑犯。本文包括有關辯護律師如何確定是否在調查中使用面部識別的指南。
利益相關者建議,可能需要通過法律來強制披露該技術的使用。
44的Clearview AI的使用多倫多警察已經制定了一項新的政策,以反對未經批准的調查人員使用AI的使用多倫多之星報告。一些簽署該服務的警察只對其進行了測試,但是在指示警察停止使用它之前,在84次調查中使用了Clearview。
根據安大略省法律聯盟的傑克·吉梅爾(Jack Gemmel)的說法,顯而易見的是,隱私和起訴的風險都是顯而易見的。
根據一份內部報告,在荷蘭的一次會議上,由美國聯邦調查局和國土安全部發表的一份演講將多倫多警方介紹了Clearview的應用程序。