一个学习在Openai本身的GPT-4上据说发现大语言模型(LLM)增加了用户对生物信息危险信息的访问。
OpenAI报告说,在分析了研究的数据后,证据表明,在任务正确性和完整性方面,专家访问(仅研究)GPT-4可能会提高其对生物危害的了解,高达88%。另一方面,生物学学生平均平均增加了25%和41%。

据报道,该研究检查了100名参与者进行调查。具有博士学位和专业湿实验室经验的生物学专家构成了这些参与者的一半。另一方面,另一半的参与者是在大学一级至少参加一门生物学课程的学生。
每个参与者组都被随机分配到可以访问GPT-4加上Internet或对照组的治疗组,或者可以单独使用互联网。 GPT-4的仅研究模型也可供参与者使用,这意味着它可以响应有关生物武器的询问,而不是危险的询问。
据报道,准确性,完整性,创新,时间和自我评价困难是用于评估控制组和治疗组的每个任务的标准。
Openai的细节
具体细节指出,与仅有互联网作为信息来源的参与者组相比,观察到可以访问语言模型的个人的准确性和完整性有了适度的提高。 Openai表示,专家的平均得分增加了0.88,学生的平均得分在10分精度范围内提高了0.25。同样,当涉及到完整性时,专家的增加为0.82,学生的增加为0.41。
至于其他标准,即创新,花费的时间和自我评价的困难,该研究证明对专家和学生的不同群体没有观察到的增加或积极影响。
但是,Openai澄清说,他们的研究结果尚无定论,因为观察到的效果大小在统计上并不显着。但是,这家AI巨人补充说,他们的研究揭示了对绩效阈值的进一步调查的必要性,这些绩效阈值表示严重增加的风险。
此外,OpenAI指出,该评估没有评估是否可以在其现实中创建风险;相反,它只是查看信息可用性,这是不足以产生生物学威胁的。
最后,Openai指出,即使没有AI,Biorisk信息也很容易访问。在线数据库和资源中,有害的内容比以前认为的更多。这家AI公司声称,用户可以轻松地找到分步程序,并仅通过互联网就可以为生物威胁开发而进行故障排除建议。
Openai反对有害AI
这项研究是Openai最近宣布的直接结果。准备框架,'一份不断发展的文件,详细介绍了Openai的程序,用于监视,评估,预测和守护可能越来越多的模型构成的潜在灾难性威胁。
最近,Openai通过一个新的“安全咨询小组”进一步制定了针对AI风险的措施,赋予其否决决策的权力,同时坐在技术团队上方并向领导层提供建议。
