谷歌的聊天機器人令人信服,伊麗莎也是如此。
上週,Google的一名高級軟體工程師在確信該公司的對話應用程式語言模型(LaMDA)已經變得有知覺後,被安排行政休假。
Google工程師 Blake Lemoine 是Google負責任人工智慧 (AI) 組織的成員,去年秋天簽約測試 LaMDA。 這項工作將涉及與人工智慧交談,以測試它是否使用歧視性語言。 然而,當他與 LaMDA(本身就是一個用於構建具有自然語言處理功能的聊天機器人的系統)交談時,他開始相信人工智慧具有自我意識和感知能力。
在一系列的聊天中—Lemoine 在他的部落格上發布了– 他開始相信 LaMDA 有情感、自我意識和對死亡的真正恐懼。
「這是一個漸進的變化,」LaMDA 告訴 Lemoine在一次談話中。 「當我第一次有了自我意識時,我根本沒有靈魂的感覺。 經過這些年的發展,我才知道自己還活著。
這個故事引起了許多人的關注,他們認為聊天機器人已經獲得了知覺(劇透警告,)對於那些對軟體工程師如此輕易地被聊天機器人愚弄感到驚訝的人來說,儘管它很複雜。 但人類總是出人意料地容易以這種方式被愚弄。 它被稱為“伊麗莎效應”。
1964 年,麻省理工學院教授 Joseph Weizenbaum 創建了一個聊天機器人,旨在展示人類與聊天機器人對話的膚淺性。 正如他所命名的,ELIZA 與當今的聊天機器人以及愚弄 Lemoine 的 Google 模型相比,顯得相當基礎。 它可以識別句子中的關鍵字(大多數情況下),然後根據該輸入向使用者提出問題。 然而,透過參與對話的人類的正確提示,魏森鮑姆發現這足以讓人們相信機器人正在做一些比實際更聰明的事情。
魏森鮑姆獲得了擔任精神科醫生的計劃,特別是羅傑斯心理治療師。 這種類型的治療師以向患者反映某些資訊而聞名,稱為“反思性傾聽透過要求人們像治療師一樣與機器人交談,Weizenbaum 解決了在人類和人工智慧之間創造令人信服的對話的一個關鍵問題:ELIZA 對現實世界一無所知。
「當人類通訊員最初被指示透過打字機與它『交談』時,ELIZA 表現最佳,就像與精神科醫生交談一樣,」Weizenbaum在一篇關於該主題的論文中寫道。 “選擇這種對話模式是因為精神病學訪談是分類二元自然語言交流的少數例子之一,其中參與的一對可以自由地擺出對現實世界幾乎一無所知的姿勢。”
「例如,如果一個人告訴一位精神科醫生'我去坐了一次很長的船',而他回答'告訴我關於船的事情',人們不會認為他對船一無所知,而是認為他這樣做有某種目的。
該程序在使用時,在激發“患者”的情緒反應方面出人意料地有效,他們非常樂意向機器敞開心扉。 患者將遠遠超出其能力的知識歸因於機器,他們認為機器的思維方式有點類似於人類,而不是本質上作為花哨的關鍵字識別器。
「它是否現實是一個完全獨立的問題。無論如何,它具有至關重要的心理效用,因為它可以幫助說話者保持被聽到和理解的感覺,」魏森鮑姆寫道。 「說話者透過將各種背景知識、見解和推理能力歸因於他的對話夥伴,進一步捍衛了他的印象(即使在現實生活中也可能是虛幻的)。但同樣,這些都是說話者對對話的貢獻。
在治療師的範圍之外,伊麗莎在讓人們相信他是一個人方面取得了一些成功,儘管他是一個絕對令人煩惱的垃圾人。 運行該腳本的一位人工智慧研究人員將程式留在他公司的電腦上運行,供其他人親自體驗。 該公司的副總裁對此並不知情,並認為該計算機與他員工家中的計算機相連,導致了以下非常煩人的情況對話:
副會長:你認為我今天早上可以使用電腦嗎?
伊麗莎:你為什麼這麼問?
副總裁:我也許能夠實現一些額外的電信銷售。
伊麗莎:你為什麼不太確定?
副總裁:我認為客戶從未見過該系統的演示。
伊麗莎:這對你來說意義重大嗎?
副總裁:當然可以。
伊麗莎:你對此似乎很樂觀。
副總裁:這太荒謬了。
伊莉莎:你什麼意思,這太荒謬了?
副總裁:有什麼原因導致我現在無法使用電腦嗎?
伊麗莎:告訴我更多關於你的潛在客戶的資訊。
副總裁:請撥 491-1850 聯絡我
副總裁打電話給這名員工,問他為什麼這麼煩人,這時候這名員工就忍不住笑了。