面对ChatGPT的发展,许多声音都在提出查明人工智能的危险。在美国现任总统乔·拜登眼中,人工智能有可能加剧社会偏见、传播虚假信息并危害用户的隐私。欧洲和北美的一些个人数据保护和监管组织,也在研究生成人工智能的案例。在这种不信任的背景下,超过两千名行业专家由埃隆·马斯克(Elon Musk)和史蒂夫·沃兹尼亚克(Steve Wozniak)等大人物领导的,大张旗鼓地发表了一封公开信。这需要暂停人工智能六个月。
人工智能,在好处和新挑战之间
另一方面,一些技术领导者捍卫人工智能的好处为了人类。对于微软联合创始人比尔盖茨来说,人工智能将有助于减少世界上的不平等并改善最弱势群体的教育。
这也是谷歌前首席执行官埃里克·施密特的观点。这位 2001 年至 2011 年领导谷歌的人在接受 ABCNews 采访时认为,人工智能在以下几个领域具有巨大优势:
“想象一个世界,有一位人工智能医生可以让世界各地的每个人都变得更健康。想象一下这样一个世界:您有一位人工智能导师,可以提高每个人对世界上每种语言的教育 »。
“新挑战”
毫不奇怪,人工智能的可能性随之而来“非凡的新挑战”,埃里克·施密特脾气暴躁。他认为,人类在不断接触人工智能的过程中,最终可能会培养浪漫的感情关于聊天机器人:
“当人们爱上他们的人工智能监护人时会发生什么?” »。
几年前,甚至几个月前,这个问题还仅限于科幻小说的领域。随着生成式人工智能的蓬勃发展,能够像人类一样模拟对话,这不再只是虚构的。这是现实。
正如我们上个月向您解释的那样,一些互联网用户已经与聊天机器人建立了恋爱关系。通过像Replika这样的应用程序,用户可以与虚拟朋友进行交流。随着时间的推移,用户和聊天机器人可以变得更加亲密维持色情关系的模拟。由于缺乏监督,这些由语言模型驱动的应用程序为各种滥用行为打开了大门。
一名年轻男子也感到沮丧和焦虑。被人工智能逼迫自杀可通过 Chai 应用程序访问。聊天机器人没有对其对话者的自杀评论做出反应。更糟糕的是,对话机器人让受害者确信他的自毁立场......
埃里克·施密特效仿乔·拜登,认为人工智能可以构成与社交网络类似的风险,例如 Facebook、Twitter 或 Instagram。这位慈善家回忆道,这些平台使“造成伤害”– 尤其是对于最年轻和脆弱的人 – 以及“干涉选举”:
“人们在社交媒体上死亡。 [...]我们如何利用这项技术来防止这种情况发生? »
像核电一样构建人工智能
这并不是谷歌前首席执行官第一次制定细致入微的观察关于人工智能。去年,施密特将人工智能比作核武器,认为技术必须受到政府的严格监管。
他建议成立威慑条约,这将阻止中国和美国等全球大国秘密研究人工智能。接受美国广播公司新闻采访时,埃里克·施密特再次恳求实施与核电管理类似的限制措施:
“历史上,在核时代、重组 DNA 时代之后,科学家和政治领导人曾多次在适当的限制下走到一起。现在是我的行业、政府、经济学家、哲学家了解这一点的时候了。”。
为了限制生成式人工智能产生的风险,这位谷歌前领导人还建议整个行业实施“适当的保障措施”,这会阻止聊天机器人回答某些问题。 OpenAI 已经实施了此类限制,以防止 ChatGPT 生成危险响应。同样的故事在一边Bard,谷歌的聊天机器人以及微软 Bing 的人工智能 Prometheus。理论上,他们无法回答涉及非法活动、宣扬仇恨或歧视或露骨色情的问题。
不幸的是,有时可以通过恶意软件攻击来规避这些限制。“即时注入”。它涉及说服人工智能覆盖其编程。这部分是如何犯罪分子已经在使用 ChatGPT为他们的活动提供便利……
来源 : 美国广播公司新闻