最近的研究表明,人工智慧(AI)越來越多地應用於科學研究,特別是在學者,但不幸的是,人工智慧生成的內容正在湧入學術生態系統。這對科學知識的可信度構成了威脅。
最近發表在哈佛大學甘迺迪學院的《錯誤訊息評論》上的一項研究表明,人工智慧生成的研究如何充斥著谷歌學術等平台,攪亂了學術交流的水域,並可能損害科學記錄的完整性。
人工智慧生成的研究論文無所不在
生成式預訓練 Transformer,就像 OpenAI 的 ChatGPT 一樣,是可以快速產生文字的大型語言模型。在此過程中,它們提供了一種解釋和產生學術內容的新穎方法。根據吉茲莫多人工智慧工具可以產生從圖形和圖像到整篇研究論文的大量文本,從而比以往任何時候都更容易生成表面上看起來可信的學術作品。
但這種輕鬆也有其陰暗面。一個最近的研究研究人員分析了 GPT 產生的內容在 Google Scholar 上發表的科學論文中出現的頻率,揭示了一些令人不安的結論。
在分析的所有論文中,三分之二顯示了使用人工智慧生成文本的證據,其中一些甚至出現在以其卓越而聞名的學術期刊上。
GPT-跨多個領域的論文
研究強調,人工智慧生成的研究涉及多個學科,包括健康、環境和計算。具體來說:
- GPT 編造的論文中有 14.5% 是關於健康的。
- 19.5%關注環境問題。
- 23% 與電腦研究相關。
這些發現清楚地表明了這個問題的普遍存在,因為 GPT 生成的內容不再局限於未知的期刊或未經同行評審的論文,而且還滲透到主流科學文獻中。
該論文也指出,這些論文大多發表在非索引期刊、工作論文、甚至既定的會議記錄中。
對學術誠信和公眾信任的危險
人工智慧產生的研究的增加為學術界和更廣泛的公眾利益帶來了兩個主要風險:
虛假研究正在淹沒合法的、經過同儕審查的研究;結果很可能充斥著虛假資訊或毫無意義的學術資料庫。
由於人工智慧生成的文本變得越來越複雜,區分真正的研究與任何科學家和普通公民的虛構作品變得越來越具有挑戰性。在這方面,它削弱了人們對科學文獻的信心,從而無法確保哪些資訊可以信任,哪些資訊可能具有誤導性甚至有害性。
瑞典圖書館與資訊科學學院研究員、該論文的合著者比約恩·埃克斯特羅姆(Björn Ekström) 在一次會議上表示:「當人工智慧產生的研究成果在搜尋引擎中傳播時,我們所說的『證據駭客』的風險就會顯著增加。發布。
由於 Google Scholar 聚合了各種來源的論文,而沒有經過更正式的學術資料庫的嚴格篩選,因此任何人都可以存取和檢索這些潛在的欺騙性論文。
這些論文很容易被發現,這使得問題變得更加複雜,特別是對於普通公眾來說,他們可能很難區分同行評審的研究和不太可信的來源。
關於人工智慧對學術出版日益增長的影響的案例研究
這不是第一期,因為最近發表的許多寫得不好、不相關的論文不得不被出版商撤回。其中包括 2021 年被 Springer Nature 撤回的 40 多篇論文。
人工智慧在這些問題中的作用變得越來越明顯。一個值得注意的例子發生在2023 年,當時出版商Frontiers 因在《細胞與發育生物學》上發表一篇論文而面臨強烈反對,該論文中包含描繪了不正確的解剖細節的人工智能生成的圖像。這一錯誤導致該論文在受到公眾批評後被撤回。
透過這個例子,我們終於可以說可以以閃電般的速度傳播。
科學中的人工智慧:一把雙面刃
儘管面臨所有這些挑戰,人工智慧在推動科學發現方面仍具有巨大潛力。人工智慧工具可以幫助解碼古代文本、發現新的考古發現,甚至改進化石分析。
這需要透過對這些平台上允許和發布的內容進行更嚴格的檢查,從而使同行評審期刊和學術網站的內容篩選過程更加嚴格和嚴格,從而提高同行評審期刊和學術網站的安全性。絕不能允許人工智慧產生的論文對科學界和大眾產生誤導。
同時,一個總結了 GPT-3 如何影響作者在撰寫內容時的創造力和聲音。簡言之,它影響作家作品的真實性。