與一個人進行了兩個小時的交談研究人員發現,(人工智慧)模型可以準確複製某人的性格。
11 月 15 日發表在預印本資料庫的一項新研究中arXiv谷歌和史丹佛大學的研究人員根據對每個參與者進行兩小時的採訪,創建了 1,052 個人的「模擬代理」——本質上是人工智慧複製品。這些訪談用於訓練旨在模仿人類行為的生成人工智慧模型。
為了評估人工智慧複製品的準確性,每位參與者都完成了兩輪性格測驗、社會調查和邏輯遊戲,並被要求在兩週後重複這個過程。當人工智慧複製品接受相同的測試時,它們與人類對應物的反應相匹配,準確率達到 85%。
該論文提出,模擬人類行為的人工智慧模型可以在各種研究場景中發揮作用,例如評估公共衛生政策的有效性、了解對產品發布的反應,甚至對對重大社會事件的反應進行建模,否則成本可能太高,與人類參與者一起研究具有挑戰性或道德上複雜。
有關的:
研究人員在論文中寫道:「對人類態度和行為的通用模擬——每個模擬人都可以參與一系列社會、政治或資訊背景——可以讓研究人員建立一個實驗室來測試一系列廣泛的幹預措施和理論。他們補充說,模擬還可以幫助試行新的公共幹預措施,發展有關因果和情境交互作用的理論,並增加我們對機構和網路如何影響人們的理解。
為了創建模擬代理,研究人員進行了深入訪談,涵蓋參與者的生活故事、價值觀和對社會問題的看法。研究人員解釋說,這使得人工智慧能夠捕捉典型調查或人口統計數據可能遺漏的細微差別。最重要的是,這些訪談的結構使研究人員可以自由地強調他們認為對他們個人最重要的事情。
科學家利用這些訪談產生了個人化的人工智慧模型,可以預測個人對調查問題、社會實驗和行為遊戲的反應。這包括對綜合社會調查,一個成熟的衡量社會態度和行為的工具;大五人格量表;和經濟遊戲,如和信任遊戲。
儘管人工智慧代理在許多方面與人類對應物非常相似,但它們的準確性因任務而異。他們在複製對性格調查的反應和確定社會態度方面表現特別好,但在預測涉及經濟決策的互動遊戲中的行為方面不太準確。研究人員解釋說,人工智慧通常難以處理涉及社會動態和情境細微差別的任務。
他們也承認該技術有可能被濫用。人工智慧和“「 技術已經被、在網路上冒充、辱罵和操縱他人。研究人員表示,模擬代理也可能被濫用。
然而,他們表示,這項技術可以讓我們以以前不切實際的方式研究人類行為的各個方面,透過提供高度受控的測試環境,而不會遇到與人類合作的道德、後勤或人際挑戰。
在一份聲明中麻省理工科技評論,主要研究作者樸俊成史丹佛大學計算機科學博士生說:“如果你能有一群小小的‘你’跑來跑去,並真正做出你會做出的決定——我認為,這最終就是未來。”