與一個人進行了兩個小時的交談研究人員發現,(人工智能)模型可以準確複製某人的性格。
11 月 15 日發表在預印本數據庫的一項新研究中arXiv谷歌和斯坦福大學的研究人員根據對每個參與者進行兩小時的採訪,創建了 1,052 個人的“模擬代理”——本質上是人工智能複製品。這些採訪用於訓練旨在模仿人類行為的生成人工智能模型。
為了評估人工智能複製品的準確性,每個參與者都完成了兩輪性格測試、社會調查和邏輯遊戲,並被要求在兩週後重複這個過程。當人工智能複製品接受相同的測試時,它們與人類對應物的反應相匹配,準確率達到 85%。
該論文提出,模擬人類行為的人工智能模型可以在各種研究場景中發揮作用,例如評估公共衛生政策的有效性、了解對產品發布的反應,甚至模擬對重大社會事件的反應,否則這些事件可能成本太高、具有挑戰性或道德複雜,無法與人類參與者一起研究。
有關的:
研究人員在論文中寫道:“對人類態度和行為的通用模擬——每個模擬人都可以參與一系列社會、政治或信息背景——可以讓研究人員建立一個實驗室來測試一系列廣泛的干預措施和理論。”他們補充說,模擬還可以幫助試點新的公共干預措施,發展有關因果和情境相互作用的理論,並增加我們對機構和網絡如何影響人們的理解。
為了創建模擬代理,研究人員進行了深入訪談,涵蓋參與者的生活故事、價值觀和對社會問題的看法。研究人員解釋說,這使得人工智能能夠捕捉典型調查或人口統計數據可能遺漏的細微差別。最重要的是,這些訪談的結構使研究人員可以自由地強調他們認為對他們個人最重要的事情。
科學家們利用這些採訪生成了個性化的人工智能模型,可以預測個人對調查問題、社會實驗和行為遊戲的反應。這包括對綜合社會調查,一個成熟的衡量社會態度和行為的工具;大五人格量表;和經濟遊戲,比如和信任遊戲。
儘管人工智能代理在許多方面與人類對應物非常相似,但它們的準確性因任務而異。他們在復制對性格調查的反應和確定社會態度方面表現特別好,但在預測涉及經濟決策的互動遊戲中的行為方面不太準確。研究人員解釋說,人工智能通常難以處理涉及社會動態和情境細微差別的任務。
他們還承認該技術有可能被濫用。人工智能和““ 技術已經被、在網上冒充、辱罵和操縱他人。研究人員表示,模擬代理也可能被濫用。
然而,他們表示,這項技術可以讓我們以以前不切實際的方式研究人類行為的各個方面,通過提供高度受控的測試環境,而不會遇到與人類合作的道德、後勤或人際挑戰。
在一份聲明中麻省理工科技評論,主要研究作者朴俊成斯坦福大學計算機科學博士生說:“如果你能有一群小小的‘你’跑來跑去,並真正做出你會做出的決定——我認為,這最終就是未來。”









