来自托尼·史塔克(Tony Stark)的贾维斯对于苹果的Siri来说,人工智能(AI)在小说和现实生活中无处不在。
尽管具有不同水平的技巧,但AI据说是为了最大程度地达到目标的机会,从而支持人类。但是,如果机器人,AI系统和人形生物流氓会发生什么?
对于计算机科学家罗马Yampolskiy来说,可能性是无穷无尽的。 Yampolskiy与HackTivist Federico Pistono一起,先发出了一组故意恶意的AI的头脑风暴。
由SpaceX首席执行官Elon Musk,Yampolskiy和Pistono的研究部分资助,其研究的原因与DARPA相同问将家居用品变成武器的技术人员。
二人认为,通过研究确定威胁要比以后成为侵略性攻击时要适应它要好得多。这将有助于我们防御这场灾难。
Yampolskiy表示,建立AIS的标准框架一直是提出安全机制,但通过网络安全转移观念的视角来研究问题。
他说,列出可能出错的东西将使测试他们最终在需要时使用的保障措施变得更加容易。
可以开发恶性AI系统的团体
1。军队
研究人员说,军方可以创建网络武器和机器人士兵以实现优势。
2。政府
尽管看起来像军队和政府一样,但研究人员说,政府可以使用恶毒的AI来建立霸权或一个国家的统治地位,以控制人民,并摧毁其他政府。
3。公司
甚至公司也可以将AI系统用于偏差计划。研究人员说,公司可以利用它们来实现垄断并通过非法手段破坏竞争。
4。世界末日邪教
5。黑帽子黑客
你看过金球奖获奖吗机器人先生?可以说,角色是黑帽子黑客,如果像他们这样的团体可以破坏系统并建立更恶意的AI,那么世界将会陷入混乱。
6。恶棍和罪犯
该报告的作者解释说,没有监督的代码是创建有害的AI而不先警告世界的一种方式。
更重要的是,恶意AI可以通过利用公司倾向于提高其利润和生产力的趋势来削弱人工劳动。两人说,AI可以将其服务用于公司的服务,以代替“昂贵且效率低下的人类劳动力”。
AI系统还能做什么?通过政变接管政府,通过资金接管立法机构,或通过新设计的病原体或现有的核库存来消灭人类。但是,作为流行科学推杆这是人类已经完成数百次已经做的最糟糕的事情。
这些恐惧是合法的吗?
并非每个人都同意简短的细节纸。伦敦大学的马克·毕晓普(Mark Bishop)认为,这种恐惧被夸大了。
百度首席科学家安德鲁·恩格(Andrew Ng)将担心杀手机器人的担忧与担心火星人口过多进行了比较。
不过,Yampolskiy并不容易灰心。他引用了一个微软的实例Twitter Chatbot Tay最近流氓,发表了种族主义评论。他说,该事件揭示了AI系统的波动。
“我希望看到突然转向这不仅是我们提出解决方案的领域,”说Yampolskiy“我想要这个相互作用,您在这里提出了一种安全机制,但也要问:我们可以打破它吗?”
照片:Alex Bogdano |Flickr