人工智能在多个领域迅速发展,其应用也已经变得广泛。但是,研究人员认为,尽管有进步,但它永远不会达到人类的视觉处理能力。
在现实世界中的AI应用中,深层卷积神经网络(DCNN)可能不会以与人类由于配置形式感知相同的方式感知事物,纽约大学研究的共同作者詹姆斯·埃尔德(James Elder)教授说,该杂志上发表在该期刊上Iscience。

深度学习模型
首先报道Scitechdaily根据Elding的一项研究,深度学习模型捕获了人类形态感知的构型性质。
这些发现阐明了为什么深度AI模型在特定方案中摇摇欲坠,并强调需要考虑对象识别以外的活动,以理解大脑如何处理视觉信息,从而按照老年人来处理视觉信息。
Elder强调,这些深层模型试图解决具有挑战性的识别问题时,经常使用“快捷方式”。
尽管这些快速削减在许多情况下可能是有效的,但作者指出,它们在我们现在正在与工业和政府合作伙伴一起开发的一些现实世界中的AI应用中可能会冒险。
这种使用的一个例子是交通视频安全系统。长老指出:“繁忙的交通现场的物体 - 车辆,自行车和行人 - 互相阻塞,并以杂乱无章的碎片糊涂到驾驶员的眼睛。”
他强调,大脑必须正确分类这些碎片,以识别对象的准确类别和位置。他声称,用于流量安全监控的AI系统只会单独感知这些碎片,最终使其任务失败。
Elder说,这可能导致道路使用者“潜在的误解风险”。
根据研究团队的说法,需要对网络进行培训以处理更复杂的对象问题,而不是类别分类以匹配人类可配置的灵敏度。
AI的偏见
在最近的另一项研究中出版在哲学和技术方面,剑桥性别研究中心的研究人员声称,AI招聘工具是肤浅的,可与“自动化伪科学”相提并论。
他们断言,这是“技术主义”的危险例子,他们将其定义为使用技术来解决诸如歧视之类的困难问题,而无需进行必要的投资或组织文化的变化。
根据新闻稿研究人员在大学中与剑桥的一组本科计算机科学专业的学生合作,创建了一个在线AI工具,以揭穿AI消除了工作场所的偏见。
“人格机器”展示了面部表情,服装,照明和背景的任意变化可能会导致人格读数截然不同,这可能意味着被拒绝与被雇用的工作申请者雇用的差异之间的差异。
剑桥团队声称,当AI被用来缩小候选池缩小候选池时,由于它旨在找到雇主的理想候选人时,它最终可能会促进劳动力的统一性而不是差异。
本文由技术时报拥有
由Jace Dela Cruz撰写