Microsoft最新呼籲對面部識別進行調節的幾天后,AI Institute發布了其第三份年度報告,並為政府,研究人員和行業從業人員提出了10項建議,包括一般人工智能的監管,以及“嚴格保護公共利益的嚴格監管”,用於面部識別和尤其影響識別。
AI現在的Institute位於紐約大學,稱2018年為“在AI中是戲劇性的一年”。該組織在宣布報告的一篇文章中指出,Facebook潛在地煽動了緬甸的種族清洗,Cambridge Analytica的選舉操作嘗試,Google的秘密審查搜索引擎涉及中國市場,微軟與美國移民和海關執法(ICE)的合同,以及在亞馬遜的大型活動中引起負面影響,導致與Headlines相關的負面事件。根據研究所的說法,這些醜聞都與問責制有關,並激發了其10條建議。
美國立法者和新加坡的AI道德使用諮詢委員會和數據最近呼籲進一步考慮AI治理。
62頁AI現在報告2018(PDF)建議對AI的部門特定調節,以及對面部識別的調節,該調節無法引起通知,以設定同意的高閾值。此外,該小組抨擊使用面部識別和人工智能對情感分析和其他有關個人的推論採取行動。
據帖子說:“情感識別是面部識別的子類,它聲稱基於面孔的圖像或視頻來檢測人格,內在感受,心理健康和“工人參與”等事物。” “這些主張不受可靠的科學證據的支持,並且正在以不道德和不負責任的方式應用,這些方式通常會回想起偽科學和相對術的偽科學。在個人和社會水平上,將識別與僱用,獲得保險,教育和警察的聯繫都深深地引起風險。”
亞馬遜最近被授予專利使用Alexa的語音識別來識別用戶情緒。
十個建議還包括開發新的治理方法,包括內部問責結構,放棄商業秘密或其他法律要求,通過促進“黑匣子效應”,增加對認真對待者和舉報人的保護以及對AI中的廣告法中的“真相”法律的應用。在建議中還解決了工作場所歧視問題,詳細的堆棧供應鏈的詳細說明,對公民參與的支持增加以及對包括社會和人文學科的學術AI培訓的擴展。
該報告還批評了“野外”對AI系統的猖test測試,並探討了“算法公平性”的想法,最終表明,技術領域和其他社區中的觀點和專業知識必須與其他社區中的觀點和專業知識成功解決。