什么时候系统开始变得富有创造力,它们可以创造伟大的事物——也可以创造可怕的事物。以一个人工智能程序为例,它可以让网络用户创作音乐连同一个虚拟约翰·塞巴斯蒂安·巴赫通过将音符输入到生成类似巴赫和声的程序中来匹配它们。
由谷歌运行,应用程序画了 伟大的 称赞因为它具有开创性并且玩起来很有趣。也吸引了批评,并对人工智能的危险提出了担忧。
我的研究如何新兴技术影响人们的生活告诉我,这些问题超出了公认的广泛关注范围是否算法真的可以创作音乐或一般艺术。
有些抱怨看起来很小,但实际上并非如此,比如谷歌的人工智能的观察结果违反基本规则的音乐创作。
事实上,让计算机模仿真人行为的努力可能会令人困惑,而且可能有害。
模仿技术
Google 的程序分析了巴赫 306 首音乐作品中的音符,寻找旋律与提供和声的音符之间的关系。
由于巴赫遵循严格的作曲规则,因此该程序可以有效地学习这些规则,因此可以在用户提供自己的笔记时应用它们。
巴赫应用程序本身是新的,但底层技术却不是。训练有素的算法识别模式并使概率决策已经存在很长时间了。
其中一些算法非常复杂,以至于人们总是不明白他们如何做出决定或产生特定结果。
人工智能系统并不完美——其中许多系统依赖于不具有代表性的数据全体人口,或者是受人类偏见的影响。目前还不完全清楚谁可能承担法律责任当人工智能系统出错或引发问题时。
不过现在,人工智能技术已经足够先进,能够模拟个人的写作或说话风格,甚至面部表情。
这并不总是坏事:一个相当简单的人工智能给出了这沟通能力通过预测他最常使用的词语,可以更有效地与他人交流。
模仿人类声音的更复杂的程序协助残疾人士– 但也可以用来欺骗听众。
例如,制造商琴鸟,一个模仿声音的程序,已经发布了一个模拟对话巴拉克·奥巴马、唐纳德·特朗普和希拉里·克林顿之间。这听起来可能很真实,但这种交流从未发生过。
从好到坏
2019 年 2 月,非营利公司 OpenAI 创建了一个程序,可以生成以下文本:与文本几乎无法区分人们写的。它可以以以下方式“写”一篇演讲:约翰·F·肯尼迪, JRR托尔金在指环王或学生写作关于美国内战的学校作业。
OpenAI 软件生成的文本非常可信,因此该公司选择了不释放程序本身。
类似的技术可以模拟照片和视频。
例如,2018 年初,演员兼电影制片人乔丹·皮尔 (Jordan Peele) 制作了一段视频,视频中美国前总统巴拉克·奥巴马 (Barack Obama) 说道奥巴马从未真正说过的话警告公众这些技术带来的危险。
2019 年初,一假裸体照片美国众议员亚历山大·奥卡西奥-科尔特斯的言论在网上流传。捏造的视频,通常称为“深度造假”,预计将日益 用过的在竞选活动中。
国会议员已经开始研究这个问题2020 年大选之前。美国国防部正在教导公众如何发现被篡改的视频和音频。
新闻机构如路透社正在开始培训记者如何识别深度伪造品。
但在我看来,更大的担忧仍然存在:随着人工智能技术变得更加复杂,用户可能无法足够快地学习来区分虚假内容。
例如,随着公众开始意识到深度造假,人工智能已经被用于更高级的欺骗行为。现在有程序可以生成假脸和假数字指纹,有效地创建伪造整个人所需的信息——至少在公司或政府记录中。
机器不断学习
目前,这些技术中存在足够多的潜在错误,使人们有机会检测数字制造。谷歌的巴赫作曲家犯了一些错误专家可以检测到。
例如,当我尝试时,程序允许我输入平行五度,巴赫的音乐音程刻意避免。
该应用程序还违反了音乐规则通过在错误的调上协调旋律来实现对位法。同样,OpenAI 的文本生成程序偶尔会写出类似“水下发生火灾“这在他们的背景下毫无意义。
随着开发人员致力于他们的创作,这些错误将会变得越来越少。实际上,人工智能技术将会不断发展和学习。性能的提高有可能带来许多社会效益,包括更好的医疗保健,因为人工智能程序可以帮助使医学实践民主化。
给予研究人员和公司探索的自由,以便从人工智能系统中寻求这些积极的成就,意味着开发更先进的方法来制造欺骗和其他社会问题的风险。
严格限制人工智能研究可能会遏制这种进展。但给予有益的技术成长空间代价不小——滥用的可能性,无论是制作不准确的“巴赫式”音乐还是欺骗数百万人,都可能以人们无法预料的方式增长。