黛博拉·拉吉(Deborah Raji),算法危害研究研究員Mozilla基金會曾建議,可以使用漏洞賞金來解決面部識別應用中的算法偏見。
這些發現於本週早些時候在年度Mozilla節,探討了人工智能和權力,勞動,真理和其他關鍵問題的事件。
拉吉的研究與倡導小組一起進行算法正義聯盟(AJL)並分析瞭如何部署錯誤賞金程序以檢測生物識別技術中的算法偏差。
Raji告訴Raji說:“當您發佈軟件時,並且存在某種漏洞使該軟件有可能黑客入侵時,信息安全界已經開發了許多不同的工具來尋找這些錯誤。”ZDNET在面試中。
她補充說:“這些是我們可以看到算法中偏見問題的相似之處。”
偏見是面部生物識別技術的經常性問題,就在上個月偏見的指控執法和教育中的生物識別系統在美國提出了法律行動
根據研究研究員的說法,在研究期間要解決的第一個問題是從編程角度來定義算法危害,因為偏見本質上是主觀的。
即使要建立這些定義,也必須遵循偏差檢測的方法,可能危及某些產品背後的整個工程過程。
拉吉解釋說,這個問題可能會由自發投資於發展道德技術的公司解決。但是,受生物識別和其他系統中算法偏差影響的種群通常不付費客戶。
但是,研究人員補充說,更有可能的解決方案是推動更嚴格的法規關於公司。
她總結說:“我認為合作只會通過監管或極端的公共壓力發生。”