在接受採訪時哥倫比亞廣播公司 (CBS)、谷歌首席執行官桑達爾·皮查伊 (Sundar Pichai) 回歸關於原因團體的謹慎在人工智慧方面。近年來,山景城巨頭確實多個人工智慧項目被推遲出於極大的謹慎。語言模型明顯被拒絕,谷歌指出存在安全性和圖像風險。部分原因是 OpenAI 和微軟採取了這種不情願的態度比賽的負責人人工智慧方面,領先谷歌。然而,這位泰坦手中掌握著所有的牌,可以確立自己作為先驅者的地位。
“我們必須對每一步負責”,聲明桑達爾·皮查伊。
在尋求更大膽地應對競爭對手的同時,Google也採用了類似的方法巴德發射。該公司沒有直接在全球部署其聊天機器人,而是專注於漸進可用性,從美國和英國開始。
“我們希望在建置和部署更高效的模型之前開發更強大的安全層””,Google 經理解釋道。
最初,谷歌依靠的是模型拉MDA(用於對話應用程式的語言模型)。逐步地,該公司添加了更好的語言模型的功能,即通路語言模型(PaLM)。它有 5400 億個參數,而 LaMDA 只有 1370 億個參數。
另請閱讀:谷歌準備推出新搜尋引擎以應對微軟Bing
之謎“新興屬性”
桑達爾·皮查伊 (Sundar Pichai) 表示,生成式人工智慧有時會以意想不到的方式表現。這就是為什麼仔細、密切監視人工智慧的反應極為重要。
根據Google的研究結果,語言模式有時可以獨立自學新技能,在程式設計師不知情的情況下。該公司將這個謎團命名為“新興屬性”。
例如,Google開發的實驗性人工智慧能夠完全獨立學習“孟加拉國的語言,儘管她沒有接受過了解它的培訓”。與桑達爾·皮查伊 (Sundar Pichai) 一起出席的谷歌技術高級副總裁詹姆斯·曼尼卡 (James Manyika) 解釋說,人工智能只需要提出幾個請求就可以習慣一種未知的語言:
“我們發現,只需很少的孟加拉語查詢,它現在就可以翻譯所有孟加拉語”。
黑盒子…就像人腦
突現屬性源自於其功能本身機器學習,它由機器學習本身組成,基於可用數據,無需人工幹預。一旦這種邏輯發揮到極致,人工智慧無需程式設計師的幫助就能學習語言也就不足為奇了。
然而,桑達爾·皮查伊指出,人工智慧發現孟加拉語的精確方式仍然讓谷歌工程師們困惑不已。執行長承認,這些類型的奇怪現象仍然存在“黑盒子”,也就是說一個內部機制未知的系統:
「你知道,你不太明白。你無法完全說出他為什麼這麼說,或者為什麼他錯了。我們有一些想法,我們的理解能力會隨著時間的推移而提高”。
渴望接近人工智慧“謙遜”,Google老闆回憶說,同樣,“我們並不完全了解人類思維是如何運作的”。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇
來源 : 哥倫比亞廣播公司