騙子已經在使用欺騙受害者的家人、朋友和商業夥伴。如果他們也可以使用他們的個性的深度偽造呢?
來自斯坦福大學和谷歌 DeepMind 的一組研究人員訓練了人工智能模型,在短短兩個小時的對話後就能複制一個人的個性。
該研究招募了 1000 多名參與者,他們完成了兩個小時的採訪,涵蓋廣泛的主題:從個人生活到對社會問題的看法、性格和邏輯測試、社會科學實驗和經濟遊戲。然後,他們的回答被記錄下來,並用於為每個參與者訓練生成人工智能模型。科學家將它們命名為“模擬代理”。
兩週後,受訪者被要求重複相同的測試。然後將測試結果與模擬代理給出的相同問題的答案進行比較。 AI 模型可以以 85% 的準確度複製參與者的反應。
該論文指出:“生成代理在一般社會調查中復制參與者的回答的準確度與參與者兩週後復制自己答案的準確率相同,並且在實驗複製中預測人格特徵和結果方面的表現相當。”
該論文已發表於arXiv並且尚未經過同行評審。儘管這項研究沒有深入研究深度偽造,但研究人工智能模型的科學家們看到了生成代理的許多潛在用途。
模擬代理可以幫助社會科學家和其他研究人員進行研究,否則這些研究對於真實的人類受試者來說是昂貴的、不切實際的或不道德的。根據麻省理工科技評論。
它們還可能有助於製造更強大的人工智能代理。雖然確切的定義仍在爭論中,但人工智能代理最常見的定義是旨在自主完成任務和實現目標的軟件工具。他們依賴自然語言處理、機器學習和計算機視覺等人工智能技術。
領導這項研究的斯坦福大學博士生朴俊成 (Joon Sung Park) 表示:“我認為,如果你能有一群小小的‘你’跑來跑去,真正做出你本來會做出的決定,這就是未來。”
文章主題
||||||









