随着英国和加拿大的地铁系统对计算机视觉摄像机系统进行实验,但没有面部识别,犯罪和预防自杀。
武器,“反社会行为”,警报触发器中的武器飞行员
2023年9月,伦敦地铁在Willesden Green Tube Station结束了概念证明,用于AI辅助“智能站”,以提供有关客户行为的视频分析和实时数据见解。有关飞行员的最终报告列出了设计原理,以进一步迭代系统,并定义了用例和触发器,范围从计数客户条目和退出,要逃避票价触发的实时警报,靠在轨道上,张开,坐在长凳上过长或展开其电子示威者。
虽然部分编辑的文档指定智能站平台没有进行面部识别,该飞行员导致了对票价逃避用例的其他要求的测试,包括透明的面部图像以识别重复的罪犯。
有关该计划的报告有线市政运输运营商运输伦敦(TFL)测试了11种算法,该算法发出了44,000多个警报,其中19,000次实时交付给了员工。它还对隐私和消费者倡导者的异议和关注的预期清单进行了分类,他们特别担心系统的准确性,该系统声称捕获了容易发生误解的细微行为生物识别技术。
警告信号告诉AI,地铁顾客何时可能自杀
一个更无私的计划是测试计算机视觉和行为分析工具,以防止蒙特利尔地铁系统中的自杀。这CBC报告Sociétédemontréal(STM)和自杀干预中心(Crise)的研究人员正在研究人工智能,以扫描CCTV录像带,以表明遇到困境的人的迹象。
能够识别警告标志的机器学习可以向操作员发送实时警报,他们可以采取措施减轻危害。根据魁北克省蒙特利尔大学(UQAM)的Crise兼心理学教授Brian Mishara的说法,该算法目前可以根据其行为信号来识别四分之一将自杀的人中的一个。
Mishara说,该系统是物理障碍或屏幕的便宜替代品,这些替代品仍在STM的愿望清单上,但成千上万的费用。该组织表示希望在两年内实施AI系统。