最近的三篇文章(兩項新聞和一項研究)研究了可疑的生物識別監視工具,並找到了擔心如何將其使用與合理人對隱私期望進行調和的理由。情緒識別和人口統計學分類被確定為特別威脅。
實際上,這三件作品之一苛刻地判斷了對高風險應用中AI的全面調節的首次重大刺傷。
那篇文章,出版AI Research House Ada Lovelace Institute指出了政府控制面部生物識別技術的進步,以此作為如何將AI作為整體進行的指標。
歐盟立法草案根據研究所的說法,在4月下旬公開公開遭受“識別和分類之間的過時區別”,並且過多地取決於行業的自我調節和認證。
不加區分的識別和分類被視為單獨的活動,儘管既侵犯了隱私,又可能在個人誤解時會傷害他們。
例如,研究所的研究人員說,該草案將允許算法僅根據其外觀而實時地將人們遠程和實時分類為一種特定的種族或性取向。
同樣,他們發現,即使文檔的製定者試圖考慮近乎實現的技術變化和使用,他們“失敗了,無法充分應對情緒識別的風險”。
文章警告(作為 其他的 有)信任機器視覺代碼的危險,以辨別一個人的心情。有些人將階級學的努力比作,這是19世紀的頭部顛簸概率從未想過的。
一個新作品在大西洋中,關於情感識別的有爭議的案例發現了另一個類比。
1967年,一名美國心理學家前往新幾內亞的一個偏遠部落,看看他是否可以證明人類有一些普遍的情感。這篇文章講述了實驗中每個人都經歷的挫敗感。
心理學家為與部落有效地工作而做好了準備,而努力的極度孤立的人的反應就是任何人的猜測。
換句話說,很容易低估像微笑這樣簡單的事物的複雜性。這並不是要勸阻數十億美元不投資於情感識別系統 - 面部識別軟件的分支。
該技術是“基於可疑方法”,由於已經部署了威脅,因此構成了威脅。
正如文章中指出的那樣,今天的工作申請人被拒絕擔任職位,因為“他們的面部表情或聲音語調與其他員工的表情不符”。如果沒有真正的懷疑論者,企業主和公職人員的一部分,感知的情緒可能會成為可以永遠改變生活的又一數字證據。
這第三部分在對話中,對語音識別採用了類似的語氣。它的作者提出,在身份認證之外,幾乎禁止語音生物識別技術的所有用途。
特別是,在與個人,政治運動和沒有認股權證的政府任務中進行營銷互動,不應使用語音分析。
這可能是一種過度反應,但是,正如文章所解釋的那樣,一些科學家說,他們可以使用算法來描述一個人的健康,性別,種族,體重和身高。
文章主題
準確性|Ada Lovelace Institute|人工智慧|生物識別識別|生物識別技術|情緒識別|種族認可|面部識別|隱私|監視|語音生物識別技術