儘管如此,情感識別仍在繼續尋找業務的信徒,尤其是在汽車行業,但也在法律職業和零售。
實際上,該首席執行官雜誌已經研究了情感認可零售趨勢,與在兩個全球業務諮詢公司工作的三名高級管理人員交談:Ernst&Young and Gartner。
EY的全球人工聯盟負責人Rodrigo Madanes說,基於情感的人工智能很快可能很快成為零售商工具包的良好使用工具。儘管它具有隱私的影響,並且需要在部署情感識別工具之前考慮文化差異。
Gartner分析師Annette Zimmermann說,需要回答更多問題。尚無清晰的方法來警告客戶的情緒正在被發現,分析和可能存儲。
Zimmermann說,部署時,該行業現在正在更加堅實情緒識別對於市場研究,例如分析客戶並評估對產品或服務的反應。
根據Gartner分析師Robert Hetu的說法,無法進一步推動這項技術也與大多數零售商未能將客戶反饋轉換為產品策略的情況都相關。
Hetu建議零售商應利用計算機視覺或語音分析,以在客戶互動中增加上下文。例如,自我檢查站的計算機視覺可能會削減盜竊,同時還可以衡量客戶的感受。
懷疑論者想要在AI Act中禁止的情感識別
情緒認可也是民權組織第19條和歐洲數字權利最近發表的警告的核心(埃德里)。
第19條EDRI基本權利政策顧問Vidushi Marda和Ella Jakubowska的高級計劃官員寫道,情感認可是垃圾科學,必須被取締。他們更喜歡將其添加到擬議中的禁止算法你有文件在歐盟辯論。
兩人寫道,目前的情緒識別主要被歸類為AI法案中的低風險或最小風險。
“公民社會在影響歐洲議會以支持修正案方面取得了重要進展禁止公共面部識別這篇文章寫道:“,以及其他大規模監視的用途。但是,一個極其危險的方面在很大程度上沒有解決 - 阻止歐洲新興的情感識別市場。”
“開發人員的要求是在人們與情感識別系統互動時告訴人們。實際上,風險只是'低''或'最小',” Marda和Jakubowska寫道。
他們還指的是表明情緒識別算法的研究不夠精確,無法受到信任。此外,Marda和Jakubowska認為,即使將來也更準確,也應禁止代碼。
“這項技術對人類及其性格的假設危害了我們的隱私權,言論自由和反對自我指責的權利,”該職位寫道。 “歧視能力是巨大的。”
警告出現在最終討論在歐盟議會關於《 AI法》的議會中,歐盟旨在在今年完成。