這算法正義聯盟已經發布了一個名為“發聲擦除”抗議市場上流行的語音識別系統中確定的人口差異或“偏見”,此前其最近對算法偏見,AI和技術進行了研究。VentureBeat。
算法正義聯盟由麻省理工學院研究員Joy Buolamwini創立。該小組領導的研究結果在報告中概述了自動語音識別的種族差異”,上週在美國國家科學院會議錄上發表。
書面報告強調了Apple,Amazon,Google,IBM和Microsoft共同開發的自動語音識別系統如何與白色聲音(19%)相比,非裔美國人的聲音(35%)的單詞錯誤率更高。
每個系統都測試了20小時的42名白色說話者和73位非裔美國人的錄音。該小組使用了來自洪堡縣和加利福尼亞州薩克拉曼多的語音數據,並專注於非裔美國人英語(AAVE)。偏見背後的原因很可能是缺乏包含非裔美國人說話者的音頻數據,這就是為什麼研究人員強調投資在包容性上的重要性的原因。
該報告寫道:“這樣的努力不僅應該更好地收集AAVE語音上的數據,而且還應更好地收集其他非標準的英語數據,這些數據的揚聲器可能會受到ASR較差的表現的負擔,包括那些具有區域性和非本地英語口音的人。” “我們還認為,行業中語音識別工具的開發商和學術界應定期評估並公開報告其在這個維度上的進步。”
視覺項目由七名女性組成,包括前白宮CTO Megan Smith,畢業後的比賽作者Ruha Benjamin,設計司法作者Sasha Costanza-Chock和KimberléCrenshaw,哥倫比亞法學院和加州大學洛杉磯分校的法學教授KimberléCrenshaw。該項目指出,《紐約時報》報導《偏見報告》引用了男性專家,但報告的主要作者艾莉森·科內克(Allison Koenecke)沒有。
Buolamwini和許多研究合作夥伴在2018年至2019年之間進行了研究,種族差異和失衡的流行程度面部識別和分析系統執行。該小組對面部識別偏見進行了許多審核,現在,立法者和激進主義者經常提及這些審計。
Google和IBM Watson有堅定的在他們的系統中解決這個問題。
文章主題
人工智慧|算法正義聯盟|演算法|人工智慧|生物特徵偏置|生物識別技術|放置Buoymwini|語音識別|語音生物識別技術