一架被劫持的无人机落在目标上,一辆攻击司机的自动驾驶汽车,一场基于深度造假的有针对性的数字抹黑活动,破坏了声誉:所有这些科幻场景都可能很快成为现实。一份报告英国《金融时报》更新以令人震惊的方式指出人工智能的快速和无监督发展所带来的风险。
称为“人工智能的恶意使用:预测、预防和(风险)降低» (''人工智能的恶意使用:预测、预防和缓解'')这份大约一百页的报告由来自牛津、耶鲁、剑桥、开放人工智能协会和电子前沿基金会的研究人员撰写。行业领导者对形势做出悲观评估:过去五年人工智能性能的爆炸性增长将通过降低成本来促进新型网络武器的设计。这不仅会导致现有威胁的扩大,还会带来新型攻击。
该报告对未来的潜在威胁非常具体:无人机和无人驾驶汽车不仅可以单独使用,还可以以集群的形式成为真正的战争武器。或者为日常物品添加智能如何放大日常物品可能造成的威胁。
除此之外还有更多的数字攻击,例如入侵帐户、网站等。由于人工智能的学习能力,这不仅会变得更容易,而且最重要的是更有针对性。
如果威胁很容易识别,那么英国《金融时报》对报告中提供的有关防止人工智能滥用的线索很少感到遗憾。研究人员建议进行更多咨询和自我审查——不要发布某些过于“敏感”的算法的细节等。但在中美人工智能激烈竞争的背景下,研究人员往往会全力以赴寻找最佳雇主……而不必考虑其研究的所有应用,特别是军事和/或娱乐可以用它制成。
然而,有一点是确定的:随着自动驾驶汽车的到来,我们将必须围绕人工智能做出决策并建立一个框架。在为时已晚之前。