从10月1日开始,一家公司在面试求职者的过程中使用生物识别面部识别是非法的。
高管们可能会看这项立法,并想知道它为什么存在。为什么有人首先会承担这种高风险的法律风险?
基于面部生物识别的情感识别已被促进了某些人以招聘流程出售的方式,但批评家认为该技术是科学缺陷并执行特权。
人工智能的支持者已经花费了无关紧要的时间和资源来捍卫偏见算法的可靠指控。将AI插入招聘过程中,这始终是法庭指向法庭上的肥沃地面,似乎在要求一个未强制的错误。
也许是针对自学的,马里兰州的行为要求可能的雇用者才能获得申请人的同意,甚至在捕捉其形象之前。特别是,众议院第1202号法案表示,公司在面试中无法创建面部模板。未提及的是公司可能通过监视或安全攻击摄像机记录的图像。
立法,简短地分析在《国家法律评论》中,将面部模板定义为“面部特征的机器解释模式,它是通过面部识别服务从个人图像中提取的。”
使用算法的法律风险被发现有偏见被讨论了(订阅)上个月在法律新闻服务法律360中。文章认为,消除AI中所有偏见的努力是不现实的,但也不是必要的。
由美国陆军撰写。帕特里克·休斯顿(Patrick Huston)将军和诉讼人转变为企业顾问卢尔德·富恩特斯·斯莱特(Lourdes Fuentes-Slater),该文章列出了高管必须承认AI“由于负面偏见而产生非法或有害影响的倾向”。
赫特森(Hutson)是国防部军事法和行动的助理法官倡导者。 Fuentes-Slater是咨询公司Karta Legal LLC的创始人兼首席执行官。
两人写道,制定一个合理的计划来减轻偏见将大有帮助保护早期采用者。