所有人工智能,来自聊天GPT致克劳德路过谷歌吟游诗人,有可能产生错误答案,与现实相去甚远。有时,语言模型会陈述不准确甚至完全荒谬的事实来回答对话者的问题。然而,这些答案是由人工智能作为已被证实的事实呈现出来的。研究人员将这种现象称为人工智能“幻觉”。
人工智能幻觉的危险
最终,由语言模型驱动的聊天机器人可能会散布虚假信息在用户不知情的情况下。这样的例子不胜枚举。在亚马逊上有售的几本由人工智能编写的书籍中,我们发现危险……或致命的建议。此外,由 GPT 模型驱动的聊天机器人开始想象不可食用且有毒的烹饪食谱。新西兰一家超市提供的对话机器人建议互联网用户用漂白剂、强力胶水或松节油烹饪。
这些幻觉代表研究人员的障碍和开发商。如果人工智能偶尔能说出任何话,那么就很难委托它执行关键任务或将其用于某些领域,例如医学。
减少幻觉的技巧
意识到这一重大问题,人工智能研究人员目前正在努力寻找解决方案。正如我们在 The Next Web 的同事报道的那样,挪威初创公司 Iris.ai 可能已经发现解决方案的开始。
该公司总部位于奥斯陆,开发了一款由人工智能驱动的引擎,该引擎将在汇总、分析和分析大量数据之前查阅这些数据。“去理解”。由欧盟资助,该项目基于《神经网络算法》自动化“发现相关科学文献并创造新假设的过程”。根据启动情况,发动机可以做“在搜索过程中节省高达 90% 的时间”。但是,与所有其他基于人工智能的工具一样,人工智能有时也会产生幻觉。
为了避免这种情况,这家成立于 2015 年的初创公司实施了一系列缓解技术。首先,Iris.ai 将系统地检查准确性其工具生成的响应。这家初创公司开发了一种技术,可以自动确定答案是否正确。
“我们绘制了我们期望在一个好的答案中看到的关键知识概念。然后我们检查人工智能的响应是否包含这些事实以及它们是否来自可靠的来源””,Iris.ai 技术总监 Victor Botev 在接受媒体采访时解释道。
此外,这家挪威公司将把人工智能生成的响应与使用自己的指标“基于单词重要性的文档相似度”建立的事实进行比较(无线信息数据管理)。据 Iris.ai 称,这是一个“用于计算科学文档分析的文档相似性/差异的新的快速且可扩展的方法”。初创企业自动化并加速比较过程对事实的回答。
下一步,公司将重点响应的一致性由人工智能通过检测相关或不相关数据的存在来提供。研究人员使用展示数据之间关系的知识图。这些突出显示了人工智能模型在生成响应时所经历的所有步骤。一旦流程被打破,初创公司的系统就可以更容易地发现人工智能何时开始脱轨并产生错误。
“可以更早地识别和治疗所有领域幻觉的根本原因”,Victor Botev 晋级。
训练数据的重要性
通过结合这些不同的技术,Iris.ai 相信它能够显着降低幻觉发生率。在内部测试这些技术后,这家初创公司发现错误急剧下降。不幸的是,这种创新有其局限性。据奥斯陆公司称,它更适合用于研究的模型。事实上,使用该系统的研究人员可以从使用该系统的聊天机器人发表的评论中退一步。对于向公众开放的人工智能模型的对话者来说,情况并非总是如此。
这就是 Iris.ai 推荐的原因密切关注所使用的数据形成语言模型。通过选择过滤和手工挑选的信息,并选择“一种编码语言”,理论上可以减少模型开始解释错误的情况。与支持大多数模型的文本数据不同,该代码不受解释。
Opera One - AI 驱动的网络浏览器
作者:歌剧
来源 : 下一个网络