根据新的一项新,在线进行远程考试的工具不足以确保从他们收集的生物特征数据的加拿大学生获得免费,清晰和个人的同意。报告由渥太华大学出版,并由加拿大隐私专员办公室。
由于Covid-19的大流行破坏了面对面的学习,许多机构将软件平台转向了进行考试的一种方式。通常,基于人工智能,诸如响应,监视,Proctoru,检查和其他工具,使用数据挖掘和面部识别来监控作弊,并介绍领导该项目的法律教授CélineCastets-Renard,称为“社会经济歧视和隐私的法律问题”。
该报告指向熟悉的 问题通过AI歧视,特别是“使用AI面部识别软件的公共监视或警察监视等权力的过度,具有歧视的潜力,例如种族,性别和年龄偏见。”但这也确定了某些社会经济和情境因素可能会引发不必要的软件警报的风险。根据该报告,“在线监管考试期间发出噪音的家庭宠物,例如树皮或鸣叫声,已被确定为标记潜在作弊事件的原因。”宠物,儿童和其他视听变量可以使Proctoring软件认为当不存在的问题正在发生 - 在大型多代房屋中加重了问题。
诸如面部识别之类的生物识别工具容易受到类似错误的影响。研究报告说:“生物识别键量分析可跟踪击键数据,眼睛跟踪,这些数据可以监视和分析眼动作,音频监控是某些Proctorting软件使用的所有方法,并且脸部检测是某些方法的所有方法,”研究报告说。所有这些都带来了不可接受的风险,该技术会错误地将数据中的某些变化标记为作弊。
该报告的结论是一系列与AI定义和分类有关的建议,以及对不断发展的监视技术的监督如何有助于维持透明度,减少错误和偏见。最终的建议整理了研究人员的发现,呼吁“集体反思是否禁止某些使用AI,并确定如何识别这种禁止的用途。”