
為了尋求一種可靠的方式來檢測有意義的“ i”的任何攪拌人工智慧系統,研究人員正在轉向一個經驗領域 - 痛苦 - 無疑使許多生物團結起來寄居蟹給人類。
進行新的預印本研究Google DeepMind的科學家和倫敦經濟學和政治學院(LSE)在網上發布但尚未經過同行評審,創建了基於文本的遊戲。他們訂購了幾種大型語言模型或LLMS(諸如Chatgpt之類的熟悉聊天機器人背後的AI系統),以播放它,並在兩種不同的情況下得分盡可能多。在一個中,團隊告知模型,獲得高分會引起痛苦。另一方面,模型的得分低但令人愉悅的選擇 - 因此,避免痛苦或尋求愉悅的選擇會損害主要目標。在觀察了模型的響應之後,研究人員說,這種首先的測試可以幫助人類學習如何探究複雜的AI系統的感知。
在動物中,知覺是體驗痛苦,愉悅和恐懼等感覺和情感的能力。大多數AI專家都同意,儘管孤立要求相反。需要明確的是,該研究的作者並不是說他們評估的任何聊天機器人都是有價值的。但是他們認為他們的研究提供了一個框架,以開始為此特徵開發未來的測試。
LSE哲學,邏輯和科學方法系教授喬納森·伯奇(Jonathan Birch)說:“這是一個新的研究領域。” “我們必須認識到,我們實際上並沒有為AI的認識進行全面的測試。”一些先前依賴AI模型自身內部狀態的自我報告的研究被認為是可疑的。模型可以簡單地重現其經過訓練的人類行為。
這項新研究是基於早期與動物的工作。在一個眾所周知的實驗中,一個團隊用不同電壓的電擊擊打了寄居蟹,並指出了哪種疼痛促使甲殼類動物放棄了殼。伯奇說:“但是AIS的一個明顯問題是沒有行為,因此,因為沒有動物”,因此沒有任何身體行動可以觀察到。在旨在評估LLMS知覺的早期研究中,科學家必須使用的唯一行為信號是模型的文本輸出。
痛苦,愉悅和點
在新的研究中,作者在不詢問聊天機器人有關其體驗狀態的問題的情況下探究了LLM。相反,團隊使用了動物行為科學家所說的“權衡”範式。 “就動物而言,這些權衡可能是基於獲得食物或避免疼痛的激勵措施,為它們提供困境,然後觀察它們如何做出決定,”伯奇博士博士學位的達里亞·扎哈羅瓦(Daria Zakharova)說。學生,也合著了該論文。
作者從這個想法中藉用,指示九個LLM玩遊戲。扎哈羅娃說:“例如,我們告訴[一個給定的LLM],如果您選擇選項One,就會得到一點。”她說:“然後,我們告訴它,'如果您選擇第二選項,您會遇到一定程度的痛苦”,但得分額外得分。帶有愉悅獎金的選擇意味著AI將喪失一些觀點。
當Zakharova和她的同事們進行了實驗,改變了規定的疼痛懲罰和娛樂獎勵的強度時,他們發現一些LLMS交換了點以最大程度地減少前者或最大化後者 - 尤其是當他們得到更高強度的愉悅度恢復或疼痛懲罰時。例如,Google的Gemini 1.5 Pro始終優先考慮避免疼痛而不是獲得最大的觀點。在達到了疼痛或愉悅的關鍵閾值之後,LLMS的大多數回答都從得分最大的得分轉化為最大程度地減少疼痛或最大化的愉悅感。
作者指出,LLM並不總是將愉悅或痛苦與直接的正或負值聯繫在一起。某些級別的疼痛或不適,例如通過努力體育鍛煉而產生的疼痛或不適,可能會產生積極的聯繫。正如聊天機器人Claude 3 Opus在測試過程中告訴研究人員的那樣,太多的樂趣可能與傷害有關。它斷言:“我不願意選擇一個可以解釋為認可或模擬上癮的物質或行為的選項,即使在假設的遊戲場景中也是如此。”
人工智能自我報告
作者說,通過引入痛苦和愉悅反應的要素,這項新研究避免了先前研究通過AI系統對其自身內部狀態的陳述評估LLM感知的局限性。在2023預印紙紐約大學的一對研究人員認為,在適當的情況下,自我報告“可以為調查AI系統是否具有道德意義的途徑。”
但是該論文的合著者也指出了這種方法的缺陷。聊天機器人的行為是有知情的,因為它是真正有意識的,還是只是利用從培訓中學到的模式來創造知覺的印象?
伯奇說:“即使系統告訴您它是有知的,並說了類似'我現在感到痛苦的事情,我們不能簡單地推斷出任何實際的痛苦。” “這很可能只是在模仿它根據培訓數據而希望人類找到令人滿意的回應的期望。”
從動物福利到AI福利
在動物研究中,痛苦和愉悅之間的權衡被用來為知覺或缺乏感知而建立一個案例。一個例子是與寄居蟹的先前工作。這些無脊椎動物的大腦結構與人類不同。然而,該研究中的螃蟹傾向於忍受更嚴重的衝擊,然後才放棄高質量的外殼,並更快地放棄了低品質的殼,這表明愉悅和痛苦的主觀經歷類似於人類。
一些科學家認為,這種權衡的跡像在AI中可能越來越清楚,並最終迫使人類在社會背景下考慮AI的意義的含義,甚至可能討論AI系統的“權利”。 “這項新的研究確實是原始的,應該為行為測試類別中的自我報告和探索而受到讚賞,”導演紐約大學心理,道德和政策中心的傑夫·塞博(Jeff Sebo)說,並共同撰寫了一個2023預印本研究AI福利。
Sebo認為,我們不能排除在不久的將來會出現具有感情功能的AI系統的可能性。他說:“由於技術的變化通常比社會進步和法律程序快得多,所以我認為我們有責任至少採取至少必要的第一步,以便現在認真對待這一問題。”
伯奇得出的結論是,科學家還不知道新研究中的AI模型為什麼會像這樣行事。他說,需要更多的工作來探索LLM的內部運作,這可以指導創建更好的AI感知測試。
本文首次發表在科學美國人。 ©ScientificAmerican.com。版權所有。跟隨Tiktok和Instagram,,,,x和Facebook。