机器学习有着光明的未来,每周都会有专家向我们歌颂这项技术为人类带来的好处。然而,这还远远不够完美。近年来,一些值得注意的失败事件屡见不鲜,而且所提出的问题也被证明难以解决。这是人工智能领域最大失败的选集。
微软创建新纳粹聊天机器人
2016年3月23日,微软发布了一款名为Tay的聊天机器人。它具有 19 岁年轻人的个性,并且是为乐趣而设计的。网友们可以和她畅所欲言,无所不谈。这个想法是以一种有趣的方式展示智能聊天机器人的样子。但乐趣很快就转变了在噩梦中。
在几个小时内,泰采取了新纳粹男子气概、希特勒和唐纳德·特朗普粉丝的态度。为了什么 ?因为该算法的学习数据除其他外,还来自 Tay 与互联网用户的对话。他们中的一些人嗅到了这个缺陷,并对机器人进行了大量的仇恨言论。十六个小时后,编辑在被嘲笑的情况下被迫断开了永远消失的Tay的连接。
https://twitter.com/tomwarren/status/712953856053919749
谷歌制作种族主义标签
从一开始,图像识别就一直是机器学习的优势领域。应用领域之一是照片的自动分类,这简化了照片库的管理。
但在 2015 年,谷歌的照片应用程序涉足这一领域,将一对非洲裔美国夫妇比作……大猩猩。这家IT巨头立即道歉并承诺修复该问题。从那时起,出版商是否设法改进了识别算法?事实并非如此,正如后来透露的那样有线。
为了解决这个问题,他简单地删除了“大猩猩”类别,以及“黑猩猩”或“猴子”等其他类别。可以肯定的是,从那时起,风险就消除了。但从科学的角度来看,我们不能说这是令人满意的。但这清楚地说明了这项技术的不完善性。
IBM Watson 因癌症而崩溃
谁不记得沃森,这个快乐的硅人,在 2011 年,压垮人类在游戏节目中危险边缘。事情还远没有结束。据 IBM 沟通人员称,我们将会看到我们将要看到的情况。计算机很快就会彻底改变医学。该机器能够吸收大量的研究和分析,能够以更可靠的方式制定诊断和治疗。
但到了2018年,这是一个猛烈的觉醒。 IBM 内部文件披露统计新闻表明沃森医生经常推荐不良的癌症治疗方法,这甚至可能对患者造成危险。
根据华尔街日报,这个新的世界奇迹在花费了数十亿美元进行但结果可疑的项目之后,最终不会给医学带来多少好处。但这可能不仅仅是时间问题。无论如何,IBM 工程师仍然相信这一点。
监狱判决存在严重偏见
人工智能算法正在渗透到各个地方,包括法院。在美国,一些法官依靠 Compas 软件来评估罪犯或罪犯的累犯风险,这可能会直接影响他们制定的监禁刑罚。
该软件基于社会文化数据:个性、职业和社会状况、吸毒情况、居住地等。但一项调查普普利卡研究表明,该软件往往会显着高估黑人的风险,而与其他社会文化因素无关。
为了什么 ?因为该软件以无差别的方式“输入”可用的社会文化数据,并且简单地复制了其预测中的过去趋势。这个过程是不公平的、歧视性的,而且完全缺乏透明度。
视觉黑客正在成倍增加
多年来,研究人员一直试图找出算法是否容易被欺骗,或者是否可以系统地被欺骗。答案是肯定的。
在2014年研究人员发现,肉眼无法察觉的修改可能会破坏人工智能,并将狗与鸵鸟混淆。
在2016年,另一组研究人员进一步挑战极限。它表明,对于每个深度神经网络,都有可能找到一种准不可察觉的干扰,该干扰能够以高概率破坏预测。
在2017年密歇根大学的研究人员随后设想了一种应用于现实世界的攻击。你所需要的只是几张黑白贴纸,并以某种方式将它们粘贴在“停止”标志上,很快,自动驾驶汽车就会认为这是一个低于 45 公里/小时的限速标志。下面是一个演示视频,在图像底部指示了算法的分析。左侧的“停止”标志仅在最后一刻才被识别。
提问者世界然而,研究人员之一奥马尔·法齐 (Omar Fawzi) 仍希望让人放心。这些最新的攻击仅在已知所有规范的学术神经网络上进行了测试。商业神经网络的情况并非如此。然而,我们也知道,通过默默无闻来实现安全从来都不是一个好的解决方案。
弥补这些缺陷并不容易。“我们知道如何构建非常强大的神经网络,但我们不知道它为何有效以及其局限性是什么””,科学家解释道。可以肯定的是,黑客攻击人工智能将会变得越来越重要。