随着人工智能(AI)的兴起,(AGI)指的是机器在大多数领域都具有超级智能并超越人类的程度,这仍然是一种猜测。
科技领袖 Sam Altman 和 Elon Musk 预测 AGI 可能会在 2025-2028 年到来,但事实并非如此。 2025 年真正的风险是人类可能会滥用当前的人工智能工具,而不是拥有超级智能机器。
无意滥用人工智能工具
人工智能在多个领域的采用带来了一些意想不到的影响,特别是在法律领域。过度依赖人工智能的律师因提供聊天机器人准备的错误文件而受到制裁。以下是一些例子有线其报告中包括:
- 律师 Steven Schwartz 和 Peter LoDuca 因向纽约 ChatGPT 提交虚假引文而受到制裁,并被处以 5,000 美元的罚款。
- 崇科因在不列颠哥伦比亚省的法律呈件中添加一系列捏造的案件而受到处罚。
- 科罗拉多州律师扎卡利亚·克拉比尔受到制裁将多起法庭案件中的错误归咎于人工智能生成的实习生。
这些案例提醒我们,在未经验证的情况下盲目信任人工智能的危险之一,可能会带来声誉损害或法律处罚。这就是为什么我们需要谨慎对待人工智能产生的信息。
故意滥用:Deepfake 困境
人工智能工具也被用于恶意目的的武器化。不需要的 Deepfake,比如性方面的 Deepfake使用微软的 Designer AI 工具创建的泰勒·斯威夫特 (Taylor Swift) 的作品已经变得猖獗。
尽管有保护机制,但名称拼写错误等漏洞可以绕过限制。
开源深度造假工具让情况变得更糟。这种滥用不仅会影响个人,还会造成社会不信任,从而使监管和打击虚假内容变得困难。
“说谎者的红利”:操纵感知
人工智能生成的内容模糊了现实与虚构之间的界限,从而产生了一种称为“说谎者红利”的现象。这使得人们将实际证据视为虚假而驳回,从而破坏了问责制。示例包括:
- 特斯拉辩称,埃隆·马斯克 (Elon Musk) 2016 年的一段视频夸大特斯拉自动驾驶仪的安全性可能是深度伪造的。
- 一名印度政客声称音频片段被篡改,尽管其真实性已得到验证。
- 1 月 6 日,骚乱被告谎称有罪视频是人工智能生成的深度伪造视频。
随着人工智能生成的音频、视频和文本变得更加真实,区分真假的能力将变得越来越困难。
可疑的人工智能产品作为剥削手段
利用人工智能炒作的公司通常会销售对人们的生活做出关键决定的破损产品。招聘平台 Retorio 声称,它可以通过视频面试来确定候选人的工作适合性。
然而,研究表明该系统很容易被操纵,包括改变背景或眼镜。
在荷兰,荷兰税务机关使用人工智能的方式导致数千名家长被错误地指控福利欺诈,要求高额还款。该丑闻如此严重,导致总理及其内阁辞职。
2025 年降低人工智能风险
2025 年最重大的风险来自,不是来自流氓超级智能。它们包括:
- 在人工智能失败的地方(例如,法律错误)过度依赖人工智能。
- 故意滥用(例如深度伪造和错误信息)。
- 设计不当的人工智能系统会对人类造成伤害。
政府、企业和社会必须首先关注这些迫在眉睫的问题。只要通用人工智能的可能性仍然遥远,关注当今具体的人工智能风险就可以防范现实世界的伤害。