大型語言模型(LLM)因其產生類似人類的文本和執行各種語言相關的任務的能力而引起了極大的關注。但是,新研究威斯康星大學Stout的Kevin Matthe Caramancion作者探索了LLM是否可以有效地識別假新聞。
該研究評估了突出的LLM的性能,包括OpenAI的CHAT GPT-3.0和CHAT GPT-4.0,Google的Bard/Lamda和Microsoft的Bing AI,通過餵食事實檢查的新聞故事並評估他們區分真實,虛假和部分真實/虛假/虛假/虛假信息,通過餵養他們的事實核對新聞故事。
使用來自獨立事實檢查機構的100個事實檢查的新聞項目的測試套件,根據與機構提供的驗證事實相比,根據其對新聞項目進行分類的準確性進行了評估。

LLM可以進行事實檢查嗎?
研究發現Openai的GPT-4.0在測試的LLMS中表現出了出色的性能。但是,重要的是要注意,所有模型仍然落後於人類事實檢查者,強調了人類認知在檢測錯誤信息中的寶貴作用。
儘管錯誤信息在數字時代仍然是一個緊迫的挑戰,但可靠的事實檢查工具和平台的開發一直是計算機科學家的優先事項。儘管取得了進展,但仍有一個廣泛採用和值得信賴的模型有效地打擊錯誤信息。
Caramancion的研究闡明了LLM在解決此問題方面的潛力,但也強調了結合的重要性人工智慧人類事實檢查者的功能可實現最佳結果。
該研究強調了在LLM中持續進步的必要性以及在事實檢查過程中的人類認知的整合。未來的研究可以探索更廣泛的假新聞情景,以進一步評估LLM的性能。
Caramancion的未來研究計劃著重於研究AI的發展能力以及如何利用這些進步,同時認識到人類的獨特認知能力。
在新聞事實檢查中,精煉測試方案,探索新的LLM和調查人類認知與AI技術之間的共生關係是Caramancion感興趣的關鍵領域。
AI幻覺
問題AI幻覺也可能與有關LLM的研究及其檢測假新聞的能力有關。 AI幻覺是指AI模型產生虛假或誤導性信息,這些信息似乎令人信服或準確,但實際上缺乏基礎。
生成虛假信息的AI模型的可能性長期以來一直涉及許多專家。通過為這些模型提供更多的事實檢查功能,可以解決對AI幻覺的擔憂。
