«大型语言模型 (LLM) 不区分事实与虚构»:牛津互联网研究所的三名研究人员在发表于《自然人类行为11 月 20 日星期一,关于在科学领域使用法学硕士的危险。他们恐惧的对象:“的幻觉人工智能(IA)“, 期限 ”幻觉» 指出人工智能系统所犯的错误。法学硕士是语言模型ChatGPT 或其他对话代理所基于的,能够生成文本、代码或图像。然而,互联网用户过于信任这些模型,认为它们是可靠的资源,类似于人类,这对牛津互联网研究所的研究人员表示遗憾。
所犯的错误聊天GPT、巴德和其他人很多:首先可以通过这些模型的训练方式来解释它们。事实上,这些系统的形成得益于在线收集的大量数据。这些数据可能是虚假信息、观点或虚构。另一个问题:法学硕士的设计是“提供有用且令人信服的答案,但不保证其准确性或符合事实(……)»。
法学硕士不应被科学家用作知识来源
除此之外,我们还被引导去信任他们。我们将它们视为“说真话的人»,他们继续。文章合著者、牛津互联网研究所研究主任布伦特·米特尔施塔特 (Brent Mittelstadt) 教授表示,这是因为聊天机器人会以对话的语气回答任何问题,并以精心编写、激发信心的文本来回答。牛津大学新闻稿。结果 : ”用户很容易相信答案是准确的,即使它们没有基于任何事实或呈现有偏见或部分事实的版本“,他解释道。
研究人员表示,这足以引起人们对科学未来的严重担忧。教授们表示遗憾,科学界在任何情况下都不得使用法学硕士作为知识来源,有时确实会出现这种情况。 “我认为 ChatGPT 和语言模型是非常不可靠的研究助手。他给我的一切,我总是检查并确保它是真的»,Brent Mittelstadt 强调,接受采访欧洲新闻报,11 月 20 日星期一。
虚假发明参考文献
因为什么造成了问题,这些不是幻觉。粗鲁的“ 的诗人或聊天GPT。这些看似正确,但事实并非如此。有时人工智能生成的内容是“稍微错误或稍微有偏见,或者你需要特定的专业知识才能说它是错误的», 向我们的同事报告教授。碰巧,对科学文章或论文的引用完全是由会话代理发明的。 “如果你不回去寻找,你不会意识到这实际上是一件完全捏造的东西。或者参考文献可能是正确的,但它可能会为您提供有关文章内容的不正确信息»,他继续在欧洲新闻台报道。
对于科学家来说,模型的唯一使用不会损害科学,就是将其用途限制在基于可靠数据的执行命令上。用户可以为模型提供数据适当且经过验证(由他们自己):然后他们可以要求人工智能系统将它们转换为摘要、流行文本、图形或代码。他们写道,结果因此很容易验证。但文章作者坚持认为,科学家不应依赖模型本身作为知识来源。
«如果法学硕士被用来制作和传播科学文章,可能会造成严重危害。»,桑德拉·沃赫特 (Sandra Wachter) 警告说,牛津大学引用的文章的合著者。
使用法学硕士作为信息来源意味着“产出不可靠的作品”
然而,研究人员并没有完全拒绝法学硕士。他们相信这些模型将有助于“无疑» 科学工作。但他们认为,整个社区必须负责任地使用它们。这并不是第一次发出这条呼吁谨慎的信息,尤其是在科学领域。 2023年初,自然最重要的科学期刊之一,已经对 OpenAI 的对话代理 ChatGPT 在研究中的使用感到担忧,并解释说该工具有时被用来生成部分文章或科学参考文献的研究,其中可能包含许多错误。
«研究界最担心的是,学生和科学家可能会将法学硕士生成的文本冒充为自己的文本,或者以简单化的方式使用法学硕士(例如进行不完整的文献综述)并产生不可靠的工作»,《自然》杂志在其上写道网站网址,2023 年 1 月 24 日。该杂志要求任何使用法学硕士论文的作者保持透明度,并要求后者进行声明。她还澄清说,任何人工智能工具都不会被接受为研究文章的署名作者。
来源 : 自然人类行为