最近的研究表明,人工智能(AI)越来越多地应用于科学研究,特别是在学者,但不幸的是,人工智能生成的内容正在涌入学术生态系统。这对科学知识的可信度构成了威胁。
最近发表在哈佛大学肯尼迪学院的《错误信息评论》上的一项研究表明,人工智能生成的研究如何充斥着谷歌学术等平台,搅乱了学术交流的水域,并可能损害科学记录的完整性。
人工智能生成的研究论文无处不在
生成式预训练 Transformer,就像 OpenAI 的 ChatGPT 一样,是可以快速生成文本的大型语言模型。在此过程中,它们提供了一种解释和生成学术内容的新颖方法。根据吉兹莫多人工智能工具可以生成从图形和图像到整篇研究论文的大量文本,从而比以往任何时候都更容易生成表面上看起来可信的学术作品。
但这种轻松也有其阴暗面。一个最近的研究研究人员分析了 GPT 生成的内容在 Google Scholar 上发表的科学论文中出现的频率,揭示了一些令人不安的结论。
在分析的所有论文中,三分之二显示了使用人工智能生成文本的证据,其中一些甚至出现在以其卓越而闻名的学术期刊上。
GPT-跨多个领域的论文
该研究强调,人工智能生成的研究涉及多个学科,包括健康、环境和计算。具体来说:
- GPT 编造的论文中有 14.5% 是关于健康的。
- 19.5%关注环境问题。
- 23% 与计算机研究相关。
这些发现清楚地表明了这个问题的普遍存在,因为 GPT 生成的内容不再局限于未知的期刊或未经同行评审的论文,而且还渗透到主流科学文献中。
该论文还指出,这些论文大多数发表在非索引期刊、工作论文、甚至既定的会议记录中。
对学术诚信和公众信任的危险
人工智能产生的研究的增加给学术界和更广泛的公众利益带来了两个主要风险:
虚假研究正在淹没合法的、经过同行评审的研究;结果很可能会充斥着虚假信息或毫无意义的学术数据库。
由于人工智能生成的文本变得越来越复杂,区分真正的研究与任何科学家和普通公民的虚构作品变得越来越具有挑战性。在这方面,它削弱了人们对科学文献的信心,从而无法确保哪些信息可以信任,哪些信息可能具有误导性甚至有害性。
瑞典图书馆与信息科学学院研究员、该论文的合著者比约恩·埃克斯特罗姆 (Björn Ekström) 在一次会议上表示:“当人工智能生成的研究成果在搜索引擎中传播时,我们所说的‘证据黑客’的风险就会显着增加。”布罗斯大学发布。
由于 Google Scholar 聚合了各种来源的论文,而没有经过更正式的学术数据库的严格筛选,因此任何人都可以访问和检索这些潜在的欺骗性论文。
这些论文很容易被发现,这使得问题变得更加复杂,特别是对于普通公众来说,他们可能很难区分同行评审的研究和不太可信的来源。
关于人工智能对学术出版日益增长的影响的案例研究
这不是第一期,因为最近发表的许多写得不好、不相关的论文不得不被出版商撤回。其中包括 2021 年被 Springer Nature 撤回的 40 多篇论文。这些论文发表在《阿拉伯地球科学杂志》上,与该杂志的焦点无关,也没什么意义。
人工智能在这些问题中的作用变得越来越明显。一个值得注意的例子发生在 2023 年,当时出版商 Frontiers 因在《细胞与发育生物学》上发表一篇论文而面临强烈反对,该论文中包含描绘了不正确的解剖细节的人工智能生成的图像。这一错误导致该论文在受到公众批评后被撤回。
通过这个例子,我们终于可以说可以以闪电般的速度传播。
科学中的人工智能:一把双刃剑
尽管面临所有这些挑战,人工智能在推进科学发现方面仍具有巨大潜力。人工智能工具可以帮助解码古代文本、发现新的考古发现,甚至改进化石分析。
这就需要通过对这些平台上允许和发布的内容进行更严格的检查,从而使同行评审期刊和学术网站的内容筛选过程更加严格和严格,从而提高同行评审期刊和学术网站的安全性。决不能允许人工智能生成的论文对科学界和公众产生误导。
与此同时,一个总结了 GPT-3 如何影响作者在撰写内容时的创造力和声音。简而言之,它影响着作家作品的真实性。