文章分析亞馬遜關於面部識別技術準確性的公開聲明聲稱,該公司“掩蓋了與之相關的真正風險”。
政府監督項目(POGO)文章介紹了亞馬遜指導的時間表,首先是一篇博客文章,該文章描述了一個用例,2017年6月的信心門檻設置為85%。ACLU實驗該公司挑釁地將國會黑人與犯罪的露骨相匹配,該公司指出,它指導客戶使用至少95%的信心門檻,並建議使用99%對於ACLU進行的那種比較。當麻省理工學院研究員喬伊·布拉姆維尼(Joy Buolamwini)提出研究表明可能種族和性別偏見技術問題,亞馬遜駁斥了調查結果並重新確定了99%的推薦信心閾值設置。
華盛頓縣警長辦公室是少數已知使用重新認知的執法機構之一,然後承認不使用一個信心門檻,一對AWS代表在一月份在Twitter上表示支持他們的方法,但該公司再次重申了99%的信心門檻的重要性負責使用指南。 Pogo提出的時間表結束了研究人員寫的信亞馬遜敦促它停止將重新認知出售給執法部門,並批評其對以前的批評和第三方測試的反應。
本文討論了置信閾值的性質和重要性,並指出結果通常以有限的候選人名單以及無限制的候選人名單或單一匹配響應的形式顯示。
Pogo的《憲法項目》高級顧問傑克·拉帕魯克(Jake Laperruque)總結說:“如果執法實體將使用面部認可,使執法人員,立法者和公眾對技術的工作效果(或差)清楚地描述了該技術對公民權利和公民自由以及公共安全的表現至關重要。”
Alexa的註釋人被低估了
根據俄羅斯記者萊昂尼德·貝爾希德斯基(Leonid Bershidsky)撰寫的一份觀點文章,人工智能的炒作與現實之間的對比已經暴露出來的消息是,一支大型亞馬遜員工致力於聆聽人們與數字個人助理的互動。彭博。
Bershidsky指出,即使是強大的AI語音識別系統也必須不斷註釋,以跟上語,口音轉移和文化現象。但是,與“深度學習”等短語相比,它的營銷戒指少。他還指出,亞馬遜註釋員工的訪問與亞馬遜戒指員工的訪問相似攔截據報導,今年早些時候,觀看了客戶在家外部和內部獲得註釋視頻的鏡頭。 Bershidsky寫道,在這兩種情況下,亞馬遜的反應都是“對濫用我們的系統的容忍度為零”。
記者認為,適當的反應是讓公司對人為人類的角色開放。他說,這將使AI神秘化,並可能對某些產品產生負面影響,但是市場仍然存在,而沒有其“骯髒的秘密”。
希望,越來越多地關注AI的特定方面,例如信心閾值和註釋過程工作將如何改善有關技術及其應用的社會對話的成熟度。