一群學者和博士學位該大學宣布,賓夕法尼亞州哈里斯堡科學技術大學的學生開發了自動化的生物識別面部識別軟件,據稱可以預測個人的犯罪行為。
研究人員聲稱,他們的技術沒有種族偏見和80%的準確性,可以根據圖片中的面部特徵來預測個人是否是犯罪分子。該軟件的開發是為了幫助執法機構。
這項研究的標題為“一種深層神經網絡模型,可預測使用圖像處理的犯罪性”,並由博士學位進行。學生和紐約警察局的資深喬納森·科恩(Jonathan W.
薩德吉安在一份準備好的聲明中說:“我們已經知道,機器學習技術可以在與面部識別和情感檢測有關的各種任務上勝過人類。” “這項研究表明了這些工具可以通過表明可以在高度預測犯罪性的圖像中提取微小特徵來強大的功能。”
該研究將包括在名為“ Springer Nature - 研究書籍系列:計算科學與計算智能的交易”的書籍系列中。
阿什比在一份準備好的聲明中說:“通過自動化存在無偏見的潛在威脅的確定,我們的目的是生產預防犯罪,執法和軍事應用工具,這些工具受到隱性偏見和情感反應的影響較小。” “我們的下一步是尋找戰略合作夥伴來推進這一任務。”
“犯罪是現代社會中最突出的問題之一。即使目前的警務進步,犯罪活動仍在困擾社區,” Korn在一份準備好的聲明中補充道。 “能夠執行認知任務的機器的開發,例如從面部形像中確定人的犯罪性,將為執法機構和其他情報機構帶來重大優勢,以防止在其指定地區發生犯罪。”
這項研究引發了一些關於LinkedIn的爭議,在行業專家就效率,隱私和道德原則分享了意見,稱該倡議為“不負責任”,“牽強”和“大膽的錯誤”,因為它可以推斷出人們是天生的罪犯。對話是由邁克爾·彼得羅夫(Michael Petrov)發起的,技術副總裁眼線。
彼得羅夫寫道:“在我從事生物識別技術領域的許多年中,我從未看到一項研究更大膽地錯了,仍然認為這比這更令人髮指。” “這是錯誤的動機(人們不是作為罪犯出生的,面部外觀是我們從可能的非犯罪祖先那裡繼承的),技術(算法過度訓練)以及最重要的是人類隱私的影響(通過暗示警察可以預測未來的罪犯並提前糾正犯罪犯罪)。”
一旦爭議破裂,哈里斯堡大學就拉下了公告,但是文字可以今天仍在檔案中閱讀。
蒂姆·梅耶霍夫(Tim Meyerhoff)虹膜ID系統寫道,他“對培訓該算法和伴隨的基礎真理的數據非常好奇。這無助於有助於隱私問題和偏見的主張。”
身份 +生物識別行業協會(ibia)執行董事托瓦·拉迪爾(Tovah Ladier)告訴生物識別更新在一封電子郵件中,伊比亞成員對此做出了負面反應,儘管他們也表示希望查看研究文章以確認他們的理解。 Ladier還將生物特徵預測的觀念與相性,優生學,占星術和其他偽科學領域進行了比較,並表示擔心它可能“威脅面部識別進步”。
該帖子於2020年5月7日在東部東部的下午6:58更新,以將其從“面部識別”類別中刪除。