大型语言模型(LLM)因其产生类似人类的文本和执行各种语言相关的任务的能力而引起了极大的关注。但是,新研究威斯康星大学Stout的Kevin Matthe Caramancion作者探索了LLM是否可以有效地识别假新闻。
该研究评估了突出的LLM的性能,包括OpenAI的CHAT GPT-3.0和CHAT GPT-4.0,Google的Bard/Lamda和Microsoft的Bing AI,通过喂食事实检查的新闻故事并评估他们区分真实,虚假和部分真实/虚假/虚假/虚假信息,通过喂养他们的事实核对新闻故事。
使用来自独立事实检查机构的100个事实检查的新闻项目的测试套件,根据与机构提供的验证事实相比,根据其对新闻项目进行分类的准确性进行了评估。

LLM可以进行事实检查吗?
研究发现Openai的GPT-4.0在测试的LLMS中表现出了出色的性能。但是,重要的是要注意,所有模型仍然落后于人类事实检查者,强调了人类认知在检测错误信息中的宝贵作用。
尽管错误信息在数字时代仍然是一个紧迫的挑战,但可靠的事实检查工具和平台的开发一直是计算机科学家的优先事项。尽管取得了进展,但仍有一个广泛采用和值得信赖的模型有效地打击错误信息。
Caramancion的研究阐明了LLM在解决此问题方面的潜力,但也强调了结合的重要性人工智能人类事实检查者的功能可实现最佳结果。
该研究强调了在LLM中持续进步的必要性以及在事实检查过程中的人类认知的整合。未来的研究可以探索更广泛的假新闻情景,以进一步评估LLM的性能。
Caramancion的未来研究计划着重于研究AI的发展能力以及如何利用这些进步,同时认识到人类的独特认知能力。
在新闻事实检查中,精炼测试方案,探索新的LLM和调查人类认知与AI技术之间的共生关系是Caramancion感兴趣的关键领域。
AI幻觉
问题AI幻觉也可能与有关LLM的研究及其检测假新闻的能力有关。 AI幻觉是指AI模型产生虚假或误导性信息,这些信息似乎令人信服或准确,但实际上缺乏基础。
生成虚假信息的AI模型的可能性长期以来一直涉及许多专家。通过为这些模型提供更多的事实检查功能,可以解决对AI幻觉的担忧。
