
與一個兩個小時的對話研究人員發現(AI)模型是準確地複制某人的性格。
在11月15日發布給預印度數據庫的一項新研究中arxiv,來自Google和Stanford大學的研究人員根據對每個參與者的兩個小時的訪談,創建了1,052個人的“模擬代理”(本質上是AI複製品)。這些訪談用於訓練旨在模仿人類行為的生成AI模型。
為了評估AI複製品的準確性,每個參與者完成了兩輪人格測試,社交調查和邏輯遊戲,並被要求在兩週後重複該過程。當AI複製品接受相同的測試時,它們的精度為85%。
該論文提出,模仿人類行為的AI模型在各種研究方案中可能很有用,例如評估公共衛生政策的有效性,了解對產品發射的反應,甚至對對重大社會事件的反應進行建模,否則這些反應可能太昂貴,具有挑戰性,具有挑戰性或在道德上很複雜,無法與人類參與者一起研究。
有關的:
研究人員在論文中寫道:“對人類態度和行為的通用模擬(每個模擬人士都可以在各種社會,政治或信息環境中參與其中)可以使研究人員能夠測試廣泛的干預措施和理論。”他們補充說,模擬還可以幫助試點新的公共干預措施,圍繞因果關係和上下文互動發展理論,並增強我們對機構和網絡如何影響人們的理解。
為了創建模擬代理,研究人員進行了深入的訪談,涵蓋了參與者對社會問題的生活故事,價值觀和觀點。研究人員解釋說,這使AI能夠捕獲典型的調查或人口統計數據可能會錯過的細微差別。最重要的是,這些訪談的結構使研究人員可以自由強調他們對他們個人最重要的東西。
科學家使用這些訪談生成個性化的AI模型,這些模型可以預測個人如何回答調查問題,社會實驗和行為遊戲。這包括對一般社會調查,一種衡量社會態度和行為的良好工具;五大人格庫存;和經濟遊戲,例如和信任遊戲。
儘管AI代理在許多領域都密切反映了他們的人類對應物,但其準確性因任務而異。他們在復制對人格調查和確定社會態度的反應方面表現良好,但在預測涉及經濟決策的互動遊戲中的行為方面的準確性較差。研究人員解釋說,AI通常在涉及社會動態和上下文細微差別的任務上掙扎。
他們還承認該技術被濫用的潛力。 AI和”“技術已經在,假冒,虐待和操縱其他人在線。研究人員說,模擬代理也可能被濫用。
但是,他們說,這項技術可以讓我們通過以前不切實際地研究人類行為的方面,通過提供高度控制的測試環境,而沒有與人類合作的道德,後勤或人際挑戰。
在一份聲明中麻省理工學院技術評論,主要研究作者Joon Sung Park斯坦福大學的計算機科學博士生說:“如果您可以讓一堆小的“ Yous”跑來跑去,實際上做出了您會做出的決定 - 我認為,最終是未來。”