最近的研究表明,人工智能(AI)越來越多地用於科學研究,尤其是Google學者,但不幸的是,AI生成的內容正在湧入學術生態系統。這對科學知識的信譽構成了威脅。
最近發表在哈佛肯尼迪學校的錯誤信息評論中,最近的一項研究表明,AI生成的研究是如何像Google Scholar這樣的洪水平台,掩蓋了學術交流的水域,並可能損害了科學記錄的完整性。
AI生成的研究論文無處不在
像Openai的Chatgpt一樣,生成的預訓練的變壓器是可以快速進行文本製作的大型語言模型。通過這樣做,它們提供了一種新穎的解釋和產生學術含量的方法。根據Gizmodo,AI工具可以生成大量的文本,從人物和圖像到整個研究論文,這比以往任何時候都更容易產生看起來很可信的學術工作。
但是輕鬆的一面。一個最近的研究研究人員分析了GPT生成的內容在Google Scholar發表的科學論文中出現的頻率,這表明了一些令人不安的結論。
所有分析的所有論文中有三分之二顯示了使用AI生成的文本的證據,有些甚至出現在以卓越性而聞名的學術期刊中。
跨多個領域的GPT製作論文
該研究強調,在包括健康,環境和計算在內的多個學術學科中發現了AI基礎的研究。具體來說:
- GPT製造的關於健康的論文中有14.5%。
- 19.5%的重點是環境問題。
- 23%與計算研究有關。
這些發現清楚地表明了這個問題的廣泛流行,因為GPT生成的內容不再僅限於未知的未知期刊或論文,而這些期刊或未經過同行評審的論文,而是滲入主流的科學文獻。
該論文還指出,這些論文中的大多數都是在非索引期刊,工作論文甚至已建立的會議記錄中發表的。
對學術誠信和公眾信任的危險
AI生成的研究的增加對學術界和更廣泛的公共利益構成了兩個主要風險:
假研究正在淹沒合法的,經過同行評審的研究;結果很可能會用偽造的信息或完全胡說八道淹沒學術數據庫。
由於AI生成的文本變得多麼複雜,因此將真正的研究與任何科學家和普通公民的虛構工作區分開來變得越來越具有挑戰性。在這方面,它侵蝕了對科學文獻的信心,因此無法確保可以信任哪些信息以及可能具有誤導甚至有害的信息。
瑞典圖書館和信息科學學院的研究人員兼論文合著者,博爾恩·埃克斯特羅姆(BjörnEkström發布。
由於Google Scholar匯總了來自各種來源的論文,而無需嚴格篩選更正式的學術數據庫,因此任何人都可以訪問和檢索這些潛在的欺騙性論文。
可以找到這些論文進一步複雜化的問題,特別是對於可能難以區分同行評審研究與不太可信的來源的普通公眾。
關於AI對學術出版的影響不斷增長的案例研究
這不是第一個問題,因為最近發表的許多書寫和無關緊要的論文都必須由出版商撤回。這包括2021年施普林格自然界縮回的40多篇論文。在《阿拉伯地球科學雜誌》上出現的論文與期刊的重點無關,幾乎沒有意義。
AI在這些問題中的作用變得越來越明顯。一個值得注意的例子發生在2023年,當時出版商的前沿面臨著在細胞和發育生物學上發表論文的反彈,其中包括AI生成的圖像,描繪了不正確的解剖學細節。這一錯誤導致公眾批評後的論文撤回。
在這個示例中,我們最終可以說AI驅動的錯誤信息可以以閃電速度傳播。
科學中的人工智能:雙刃劍
儘管面臨所有這些挑戰,AI仍具有推進科學發現的巨大潛力。 AI工具可以幫助解碼古代文本,找到新的考古發現,甚至改善化石分析。
這需要在同行評審的期刊和學術網站中進行更大的安全性,通過對這些平台中允許和發布的內容進行介紹檢查,從而使其目錄的篩選過程更加僵化和嚴格。不得允許通過AI生成的論文對科學界和公眾的誤解。
同時,微軟研究結論GPT-3如何在寫作內容中影響作者的創造力和聲音。簡而言之,這對作家作品的真實性有影響。