科学和施普林格小组是学术出版中最负盛名的两个名字,鉴于人工智能的出现(AI)宣布了新的社论标准。
在一份报告中独立,这些变化不包括或严重限制了在撰写研究论文中使用诸如Chatgpt之类的复杂AI机器人的使用。
人工智能威胁
2022年12月,OpenAI的Chatgpt Chatbot以其对用户问题的人类回答而闻名,促使行业专家对突破性技术可能造成的潜在破坏可能造成的可怕警告。
一些专家称呼AI中的语言模型为改变游戏规则这有可能取代Google的搜索引擎等当前技术。
实验性聊天机器人推出后,据称Google的管理层宣布了该公司搜索引擎业务的“代码红色”。
AI聊天机器人已经显示了总结研究,合理化和解决逻辑问题的能力,最近,在商业和医学等领域进行了复杂的测试。
用户还指出,AI应用程序偶尔给出的答案似乎令人信服,但确实是完全错误的。
专家的担忧
科学 期刊的主编Holden Thorp表示,出版社正在修订其准则,以禁止使用Chatgpt和文章中的任何其他AI工具。他说,AI工具不能成为作者。
索普(Thorp)明确表示,违反这些原则被认为是严重的科学不当行为,即窃或不适当地编辑研究照片。
他说,但是,AI合法并故意在研究论文中为研究目的创建数据集不会受到新规则的影响。
在由此表示关注的关注施普林格1月24日,星期二,近3,000篇期刊的出版商担心该工具的用户可能会以自己的身份提交AI编写的内容,或者使用它来进行不充分的全面文献评论。
他们引用了已撰写但尚未发表的其他研究,其中Chatgpt被列为作者。
据说,语言模型工具将被批准为研究文章的尊敬的作者,因为AI工具不能像人类作家那样承担责任。
施普林格强调在整个研究中使用此类工具的研究人员应将其包括在论文的“方法”或“确认”部分中。
为了回应Chatgpt的上升资料,其他出版社,例如Elsevier (主持2500多个期刊)也更新了其创作标准。
Elsevier说这样的AI模型可以用来增强研究出版物的可读性和语言,但不能取代作者应执行的关键职责,例如评估数据或得出结论。
