早在5月,一群教授和博士學位。賓夕法尼亞州哈里斯堡大學的學生聲稱為了開發自動生物識別面部識別軟件,以根據沒有偏見的面部特徵來預測個人的犯罪行為。
不僅公告在生物識別行業激發憤怒,但是現在有超過500多名技術專家和社會學家在關鍵技術聯盟下團結了一封信給出版商Springer自然,要求推遲所有據稱預測犯罪行為的研究,OneZero。
“這項工作及其潛在吸收的發表如何合法化,激勵,貨幣化或以其他方式實現歧視性結果和現實世界的傷害?”組織者寫道。 “這些問題不是抽象的。”
在最初的新聞稿中,該大學聲稱該工具的目的是在執法部門中使用,並且它具有80%的準確性,沒有偏見。大學撤回新聞稿後,大學表示將發布更新,但無法立即發表評論。 Springer Nature聲稱該項目被拒絕。
該聯盟說,這項研究是其他努力的一部分,幾乎沒有科學理由,這些理由一直在學術界出現。儘管揭示了這些研究,但仍有研究工作暗示一個人的臉與他們的行為之間存在聯繫。
紐約大學(NYU)兼聯盟成員的研究科學家西奧多拉·烘乾機(Theodora Dryer)告訴OneZero:“過去50年來,黑人婦女和黑人學者和從業人員對這項工作進行了批評。” “他們一次又一次地展示了犯罪性的預測在本質上是種族主義的,並且對排除它們的權力結構的生殖是生殖。”
這封信也由生物識別技術研究人員簽署放置Buoymwini,,,,使用的timnit和inioluwa黛博拉·拉吉(Deborah Raji)。這三個都有贏得了良好類別的AI在VentureBeat的AI創新獎中,他們研究了面部識別算法偏見的研究。
聯盟寫道,數據是由“種族主義刑事司法系統和一系列法律”提供的,導致該算法可能是種族主義者。
麥吉爾大學媒體,技術,民主,民主,民主,民主和簽署的信件的研究總監Sonja Solomun說:“無法預測犯罪。
哈里斯堡大學並不是唯一出版此類工作的機構。 2016年,一所漢大學的學者聲稱他們的技術可以根據面部分析和無偏見來預測罪犯。該算法是由Google和普林斯頓研究人員揭穿的,他們在2018年的研究人員Michal Kosinski進行的研究中也無效,他們聲稱他的算法可以確定性取向。
研究人員當時寫道:“像計算機或內燃機一樣,AI是一種通用技術,可用於自動化許多任務,包括首先不應執行的任務。”