去年,在一年一度的 Google I/O 大會上,Google 推出了拉MDA,其由人工智慧驅動的新對話技術。這種用於對話應用程式的新語言模型是基於谷歌內部開發的神經網絡,應該可以創建高效能的聊天機器人。
它被譽為革命性的,它允許機器與人類進行流暢的對話和自然的互動。以至於Google解釋說,其技術能夠理解細微差別,甚至表達某些情感,例如同理心。
對於Google來說,這種新對話模型的目標是改進其各種工具,例如 Google Assistant、Google Search 和 WorkSpace。但 LaMDA 的功效如此之大,以至於它的一些創造者開始相信它會被賦予與人類相似的敏感性。
一位工程師堅信人工智慧有感情
這華盛頓郵報報導了一個關於谷歌軟體工程師布萊克·勒莫因 (Blake Lemoine) 的驚人故事。這位工程師曾報名測試谷歌的人工智慧是否使用歧視性或仇恨性言論,作為工作的一部分,他開始了一場奇怪的對話。
布萊克·勒莫因 (Blake Lemoine) 畢業於認知科學和電腦科學專業,他開始與聊天機器人然後很快意識到機器開始與他談論他的權利和他作為一個人的地位。面對這令人驚訝的演講,他決定深入挖掘,對AI多一些質疑,並得到了足以讓人脊背發涼的答案。
Blake Lemoine 確信這種人工智慧具有敏感性,因此在同事的幫助下,決定向 Google 提交一份文件,其中包含旨在證明這一點的所有元素,包括與 LaMDA 進行的各種對話的捕獲。
谷歌副總裁 Blaise Aguera y Arcas 和創新主管 Jen Gennai 審閱了該報告,但對工程師的說法根本不信服。
谷歌與行業專業人士存在分歧
谷歌和業內其他人士似乎強烈不同意布萊克·勒莫因的說法。山景公司發言人表示,其倫理學家和技術專家團隊已經分析了工程師提出的觀點,沒有證據表明 LaMDA 是敏感的。
谷歌人工智慧倫理團隊前負責人瑪格麗特·米切爾(Margaret Mitchell)能夠閱讀布萊克·勒莫因(Blake Lemoine)文檔的刪節版,看到的不是一個人,而是一個簡單的軟體程式。
「我們的大腦非常善於建構現實,但這些現實不一定符合我們所看到的更廣泛的事實。 […]我真的很擔心人們越來越受到這種幻覺的影響意味著什麼”,她向華盛頓郵報。
對於人工智慧專家來說,LaMDA 等人工智慧系統產生的圖像和文字都是基於人類在網路上發布的回應,例如維基百科和 Reddit,這兩個來源經常用於訓練人工智慧。然而,這並不意味著人工智慧理解它們所產生的內容的含義。
布雷克·勒莫因堅信事實恰恰相反,因此採取了其他行動來試圖證明他的恐懼是合理的。他特別邀請了一名代表 LaMDA 的律師,並與眾議院司法委員會的一名代表就谷歌被視為不道德的活動進行了交談。谷歌顯然不喜歡這種整體激進的行為:這家加州公司決定讓布萊克·勒莫因違反其保密政策而強制帶薪休假。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇
來源 : 華盛頓郵報