作為隨著它們變得更加流行和易於訪問,全球各地的學者都在利用它們的幫助來撰寫學術稿件,特別是開發想法和內容。然而,由於其與剽竊、作者歸屬和整個學術界誠信相關的機率性質,引起了一些擔憂。隨著人工智慧工具變得越來越複雜,明確的道德準則對於維持學術工作的品質和可信度至關重要。
新的道德框架有助於引導人工智慧在學術研究中的使用。圖片來源:Alius Noreika,與 DALL·E 3 創建
新研究發表於自然機器智能,概述了最大限度地發揮法學碩士對科學進步和學術公平的有益影響的三個基本標準:
- 人工審查並保證準確性和完整性
- 確保人類對工作做出實質貢獻
- 對 LLM 使用的適當認可和透明度。
作者定義了一個 LLM 使用確認模板,研究人員可以在提交手稿時使用該模板。這項實用工具將簡化人工智慧輔助學術寫作中對道德標準的遵守,並提高法學碩士所使用的透明度。
談到指南,合著者,朱利安·薩武列斯庫教授, 的上廣牛津研究所,說:「大型語言模型是學術研究的潘朵拉魔盒。它們可以消除學術獨立性、創造力、獨創性和思想本身。但它們也可以促進難以想像的共同創造和生產力。這些指南是學術寫作和研究中負責任且合乎道德地使用法學碩士的第一步。
該出版物標誌著管理人類學術工作與機器智慧之間關係的關鍵一步。透過讓研究人員能夠合乎道德地利用人工智慧技術,他們的目標是在保持學術誠信的同時提高生產力和創新。
共同作者布萊恩厄普博士上廣牛津研究所的教授表示:“在面對新技術的可能性時,包括人類作家使用生成人工智能共同創作學術材料的能力,保持極其謹慎的態度是適當且必要的。”當事情規模擴大並快速發展時尤其如此。但道德準則不僅在於降低風險,還在於降低風險。它們還涉及最大化潛在利益。
哥本哈根大學蒂莫·明森教授表示:「指導對於學術研究中人工智慧的道德使用至關重要,特別是與法學碩士共同創作學術文章。基於研究倫理原則的適當致謝應確保透明度、道德誠信和正確歸屬。理想情況下,這將促進一個協作和更具包容性的環境,人類的聰明才智和機器智能可以增強學術討論。
來源:牛津大學