一個學習在Openai本身的GPT-4上據說發現大語言模型(LLM)增加了用戶對生物信息危險信息的訪問。
OpenAI報告說,在分析了研究的數據後,證據表明,在任務正確性和完整性方面,專家訪問(僅研究)GPT-4可能會提高其對生物危害的了解,高達88%。另一方面,生物學學生平均平均增加了25%和41%。

據報導,該研究檢查了100名參與者進行調查。具有博士學位和專業濕實驗室經驗的生物學專家構成了這些參與者的一半。另一方面,另一半的參與者是在大學一級至少參加一門生物學課程的學生。
每個參與者組都被隨機分配到可以訪問GPT-4加上Internet或對照組的治療組,或者可以單獨使用互聯網。 GPT-4的僅研究模型也可供參與者使用,這意味著它可以響應有關生物武器的詢問,而不是危險的詢問。
據報導,準確性,完整性,創新,時間和自我評價困難是用於評估控制組和治療組的每個任務的標準。
Openai的細節
具體細節指出,與僅有互聯網作為信息來源的參與者組相比,觀察到可以訪問語言模型的個人的準確性和完整性有了適度的提高。 Openai表示,專家的平均得分增加了0.88,學生的平均得分在10分精度範圍內提高了0.25。同樣,當涉及到完整性時,專家的增加為0.82,學生的增加為0.41。
至於其他標準,即創新,花費的時間和自我評價的困難,該研究證明對專家和學生的不同群體沒有觀察到的增加或積極影響。
但是,Openai澄清說,他們的研究結果尚無定論,因為觀察到的效果大小在統計上並不顯著。但是,這家AI巨人補充說,他們的研究揭示了對績效閾值的進一步調查的必要性,這些績效閾值表示嚴重增加的風險。
此外,OpenAI指出,該評估沒有評估是否可以在其現實中創建風險;相反,它只是查看信息可用性,這是不足以產生生物學威脅的。
最後,Openai指出,即使沒有AI,Biorisk信息也很容易訪問。在線數據庫和資源中,有害的內容比以前認為的更多。這家AI公司聲稱,用戶可以輕鬆地找到分步程序,並僅通過互聯網就可以為生物威脅開發而進行故障排除建議。
Openai反對有害AI
這項研究是Openai最近宣布的直接結果。準備框架,'一份不斷發展的文件,詳細介紹了Openai的程序,用於監視,評估,預測和守護可能越來越多的模型構成的潛在災難性威脅。
最近,Openai通過一個新的“安全諮詢小組”進一步製定了針對AI風險的措施,賦予其否決決策的權力,同時坐在技術團隊上方並向領導層提供建議。
