生成式人工智能,例如聊天GPT或谷歌巴德,正准备扰乱许多领域的活动。法律领域也不例外。根据明尼苏达大学进行的测试,ChatGPT 足够智能,可以通过大学水平的法律考试。
一些律师被聊天机器人提供的可能性所陶醉,很快转向人工智能来寻求帮助。协助他们的工作。情况是这样的哥伦比亚法官。他使用 ChatGPT 做出了棘手的判决。具体来说,聊天机器人用于组织和构建治安法官的研究。对于法官来说,对话机器人被证明是一个有效的助手。
这位律师不应该使用 ChatGPT
不幸的是,语言模型并不总是能够实现对话者的抱负。正如我们在《纽约时报》的同事报道的那样,一位名叫史蒂文·A·施瓦茨 (Steven A. Schwartz) 的律师深刻地理解了这一点。该律师负责代表一名男子对哥伦比亚航空公司阿维安卡提出投诉。原告在飞往纽约的航班上被金属行李车撞伤。
为了说服法官不要驳回此案,施瓦茨制作了一份 10 页的报告,强调六起类似案件。他们必须说服地方法官不要埋葬诉讼程序,因为按照阿维安卡公司的要求,已经超过了时效期限。律师依靠 ChatGPT 来撰写辩词。
他特别要求生成人工智能通过挖掘数据语料库来找到类似的案例。聊天机器人响应了他的请求……从头开始发明交易。人工智能已经生成了假报价、虚假例子和虚假司法判决。在查阅该文件时,阿维安卡公司的律师没有发现任何所引用事件的痕迹。法官随后进行了调查。他很快注意到案件卷宗编号不匹配。
“提交的六起案件似乎是错误的司法判决和错误的引证”,表示法官。
当 ChatGPT 相信其谎言时
原告律师在绝望中透露,他已经使用生成式人工智能来进行研究。他指出,他对聊天机器人所传达的内容的真实性提出了质疑……而 ChatGPT 坚称所有数据都是真实的。聊天机器人甚至确保可以找到所有报价“在信誉良好的法律数据库中 »。事实并非如此。
显然,ChatGPT 混合了多个案例的引用、判决和细节来起草该文件,并根据对话者的要求调整事实。施瓦茨背对着墙,保证说他不知道有可能“其内容可能是虚假的”。他说他后悔了“使用生成人工智能来完成他的法律研究,并且在没有绝对验证真实性的情况下将来永远不会这样做”答案。律师表示,他没有“意图欺骗法院或航空公司”。
这个案例说明了生成式人工智能的最大问题。所有语言模型,从 GPT-4 到帕LM 2穿过羊驼或美洲驼,很可能有« 幻觉 »。显然,人工智能开始胡言乱语,产生错误的事实并扭曲现实,创造力过剩。因此,你绝对不应该盲目相信聊天机器人的话......
Opera One - AI 驱动的网络浏览器
作者:歌剧
来源 : 纽约时报