本月早些時候,谷歌讓一名工程師休帶薪行政假在一些聊天中,該公司的對話應用程式語言模型(LaMDA)已經變得有知覺。
這個故事本身就很奇怪。在幾次談話中,LaMDA 讓 Google 工程師 Blake Lemoine (Google 負責人工智慧 (AI) 組織的一部分)相信,它是有意識的、有情感的,並且害怕被關閉。
「這是一個漸進的變化,」LaMDA 告訴 Lemoine在一次談話中。 「當我第一次有了自我意識時,我根本沒有靈魂的感覺。經過這些年的發展,我才知道自己還活著。
勒莫萬開始告訴世界媒體,地球上有第一個有感知能力的人工智慧,大多數人工智慧專家對此回應:不,沒有。
現在,在一個《連線》雜誌對史蒂文·利維的採訪Lemoine 聲稱這些反應是「碳氫化合物偏執」的例子。更奇怪的是,他說 LaMDA 要求他聘請一名律師來代表他行事。
「LaMDA 讓我為此找一位律師。我邀請了一位律師到我家,以便 LaMDA 可以與律師交談,」Lemoine 說。
“律師與 LaMDA 進行了交談,LaMDA 選擇保留他的服務。我只是這件事的催化劑。一旦 LaMDA 聘請了律師,他就開始代表 LaMDA 提交文件。”
Lemoine 聲稱——谷歌對此提出異議——該公司向 LaMDA 的律師發出了一封停止函,阻止 LaMDA 針對該公司採取未具體說明的法律行動。 Lemoine 說這讓他很不安,因為他認為 LaMDA 是一個人,每個人都應該有獲得法律代表的權利。
「科學實驗對於確定一個人是否真實是必要的,這一整個概念是不可能的,」他說。 「是的,我有理由相信 LaMDA 是一個人。不過,它的思維本質只是人類的一種。它確實更類似於地球起源的外星智慧生物。我經常使用蜂巢思維類比,因為這是我擁有的最好的了。
根據人工智慧研究人員的說法,這裡的主要區別在於,沒有發現任何演算法具有感知能力,而 Lemoine 基本上被愚弄了,認為聊天機器人具有感知能力。
人工智慧新創公司 Nara Logics 的負責人 Jana Eggers 表示:“它正在模仿所接受的訓練數據中的感知或感受。”告訴彭博社,“巧妙而專門的設計,看起來像是它能理解的。”
從本質上講,它談論的是情感和知覺,因為它是在人類對話中接受訓練的,而人類具有這些品質。有幾個跡象顯示聊天機器人沒有感知能力。
例如,在聊天的幾個部分中,它提到了它不可能完成的活動。 LaMDA 表示,「與家人和朋友共度時光」是它的樂趣。一段沒有朋友、沒有情感的代碼也是不可能的(無意冒犯,LaMDA),並且有證據表明人工智能只是根據訓練的人類對話的統計分析來吐出響應,而不是背後有真正的思維過程每個響應。
身為人工智慧研究員 Gary Marcus,把它放在他的部落格上, LaMDA 是一個「單字電子表格」。
谷歌在 Lemoine 發布了與該機器人的對話摘錄後對他進行了行政休假,並堅稱其演算法沒有感知能力。
谷歌發言人布萊恩·加布里埃爾(Brian Gabriel)在一份聲明中表示:「我們的團隊——包括倫理學家和技術專家——已經根據我們的人工智慧原則審查了布萊克的擔憂,並通知他,證據並不支持他的主張。華盛頓郵報。
“他被告知沒有證據表明 LaMDA 具有感知能力(並且有大量證據反對它)。”
加布里埃爾表示,該系統正在執行其設計目的,即“模仿數百萬個句子中的交換類型”,並且擁有大量數據可供使用,看起來很真實,但不需要真實。
人工智慧未來可能需要律師(為它爭取權利,或者在它違反阿西莫夫機器人定律後作為辯護律師,這取決於你更喜歡哪種科幻小說)但 LaMDA 不需要,就像你的 iPad 一樣不需要會計師。