一组人工智能伦理学家和利益相关者迈出了一个一步Shlomit Yanisky-ravid。
在最近的会议上,标题为道德愿景人工智能:创建有效的AI合规框架在缺乏法规的背景下,Yanisky-Ravid教授谈到了AI的迅速采用,其中包括敏感的应用,例如执法使用面部识别。
Yanisky-Ravid教授说:“我们的目标是填补由于缺乏与AI系统有关的美国法律法规所致的现有差距。” “It also aims to cultivate dialogue that is currently lacking between policy makers and private industry by building bridges of trust between these entities to foster better understanding of various perspectives. We share the same goals in establishing ethical-legal principles, guidelines and norms. These principles should be based upon fairness, equality, privacy, responsibility, accountability, transparency and accuracy of AI systems.”
公司内部法律顾问协会首席顾问Carole Basri教授讨论了创建AI框架的挑战,该框架是道德和有效的,他们为公司提供了几种方式来自我调节的方式,并对机器愿景,生物识别和面部识别进行了监督。
行业代表奥斯托首席营销官迪恩·尼科尔斯(Dean Nicolls)针对用例及其敏感程度介绍了规模,用户在一端将手机解锁,并根据全群人的生物识别数据库释放大规模监视。在“敏感性规模”的中间,是基于通缉或失踪人员的监视列表有限的警察申请。
该量表进一步分为“无辜”,“敏感,“可疑法律”和“侵犯人权”的使用类别。
尼科尔斯说:“媒体对执法人员对面部识别的使用以及其应用造成的不法逮捕的关注使面部识别技术产生了负面看法,尽管这些例子是生产总用例的一小部分。”