最近几个月,很多人都尝试过 ChatGPT 这样的聊天机器人。虽然它们很有用,但它们也有很多例子,比如。现在,牛津大学的一组科学家正在问:是否存在一条合法途径,可以要求这些聊天机器人告诉我们真相?
大型语言模型的兴起
在所有的喧闹声中(人工智能)似乎在过去几年中达到了新的高度,其中有一个分支比其他分支更受关注——至少对于我们这些。它是大型语言模型 (LLM),利用生成式人工智能对几乎任何你能想到的查询产生通常听起来非常像人类的答案。
这喜欢ChatGPT 和 Google 的基于大量数据训练的模型——这本身就引发了许多问题和– 让它们理解自然语言查询并生成连贯且相关的响应。与搜索引擎不同,您无需学习任何语法来帮助您缩小搜索结果范围。理论上,您只需像大声说话一样提出问题即可。
它们的能力无疑令人印象深刻,而且它们对自己的回答听起来也非常自信。但有一个小问题——这些聊天机器人在回答问题时往往听起来同样自信。.这可能没什么问题,只要我们人类能够记住不要相信他们告诉我们的一切。
“尽管我们倾向于将机器拟人化所带来的问题已得到充分证实,但我们倾向于将法学硕士视为像人类一样的真相揭露者,这一点尤其令人担忧,”新论文的作者写道,任何与 Alexa 或 Siri 发生过争论的人都会很了解这种情况。
“法学硕士的目的并不在于以任何压倒性的意义来讲真相。”
向 ChatGPT 提出问题并假设它以与人类相同的方式“思考”答案是很容易的。看起来是这样,但实际上这些模型的工作原理并非如此。
不要相信你读到的一切
正如作者所解释的那样,LLM“是文本生成引擎,旨在预测一段文本中接下来会出现哪一串单词。” 其回答的真实性只是在开发过程中评判模型的一个指标。作者认为,为了给出最“有帮助”的答案,它们可能经常会走向过度简化、偏见和胡编乱造。
这项研究的作者绝不是第一个对此发出警告的人,其中一位纸甚至称这些模型是“胡说八道”。《精神分裂症》杂志的编辑罗宾·埃姆斯利教授说,发表了一个帐户2023 年,一位用户在 ChatGPT 上表示:“我所经历的都是捏造和伪造。”聊天机器人引用了不存在的学术论文,以及一些与查询无关的论文。其他人报告了一样。
它们可以很好地处理具有明确、事实性答案的问题,而这一点很重要,即答案在它们的训练数据中出现了很多次。这些模型的好坏取决于它们所训练的数据。而且,除非你准备好仔细核实你从法学硕士那里得到的任何答案,否则很难判断这些信息的准确性——尤其是因为许多信息没有提供源材料的链接或给出任何可信度衡量标准。
牛津大学的研究团队写道:“与人类说话者不同,法学硕士没有任何专业知识或信心的内部概念,而是总是‘尽力’提供帮助,并以有说服力的方式回应所提出的提示。”
他们特别担心所谓的“无心之言”的影响,以及法学硕士的此类回应可能渗透到线下人类对话中造成的危害。这让他们提出了一个问题:法学硕士提供者是否有法律义务确保他们的模型讲的是真话。
新研究得出了什么结论?
着眼于现行的欧盟 (EU) 立法,作者发现,很少有明确的情形要求组织或个人说实话。存在的情形仅限于特定行业或机构,很少适用于私营部门。由于法学硕士采用的是相对较新的技术,因此大多数现有法规在制定时并未考虑到这些模式。
因此,作者提出了一个新框架,“为狭义和通用法学硕士提供者创建一项法律义务,以尽量减少不慎言论。”
你可能会自然而然地问,“谁是?,作者确实解决了这个问题,他们说,目的不是强迫法学硕士走上一条特定的道路,而是要求“来源的多元化和代表性”。从根本上说,他们建议制定者纠正真实性和“有用性”之间的平衡,作者认为这太偏向后者了。这并不容易做到,但可能可能的。
这些问题没有简单的答案(免责声明:我们还没有尝试询问 ChatGPT),但随着这项技术的不断发展,开发人员必须努力解决这些问题。与此同时,当你在攻读法学硕士时,可能值得记住作者的这句发人深省的话:“它们旨在参与与人们的自然语言对话,并提供令人信服且感觉有帮助的答案,无论手头的事情的真相如何。”
该研究发表在期刊上英国皇家学会开放科学。