我們中的許多人已經在與我們的智能設備交談,就好像他們是人類一樣。將來,智能設備也許能夠以類似的方式進行回話,模仿“ umms”和“ ahhs”,笑聲和嘆息,以及其他指示人類情感(例如曲調,節奏和音色)的信號。
位於紐約的初創公司休ume ai已經首次亮相了新的“情感智能” AI語音界面,該界面可以內置在不同的應用程序中,從客戶服務到醫療保健再到虛擬和增強現實。
該產品的Beta版本名為Engathic語音界面(EVI)在獲得了由EQT Ventures領導的5000萬美元B輪融資後發布。 Union Square Ventures,Nat Friedman&Daniel Gross,Metaplanet,Northwell Holdings,Comcast Ventures和LG Technology Ventures也參與了資金。
這會話AI休ume AI在版本中說,是第一個接受訓練以了解用戶何時講話時,預測他們的喜好並產生對用戶滿意度優化的人聲響應。
該公司的創始人和前Google科學家Alan Cowen說:“當前AI系統的主要局限性是,它們受到膚淺的人類評級和說明為指導,這些評級和說明容易出錯,並且未能利用AI的巨大潛力,以提出使人們開心的新方法。” “通過建立直接從人類幸福的代理中學習的人工智能,我們有效地教導它從第一原則中重建人類的偏好,然後與它與之交談的每個新人以及嵌入其中的每個新應用程序更新這些知識。”
語音模型是從數百萬人類互動的數據中培訓的,並建立在多模式生成的AI上,該多式聯運AI將大型語言模型(LLMS)與表達度量集成在一起。休ume稱其為移情大語言模型(ELLM),它可以幫助其產品根據上下文和用戶的情感表達來調整單詞和語音。
休ume AI並不是唯一一家實驗將情感帶入技術的公司。
哥倫比亞大學的機器人霍德·利普森(Hod Lipson)創建AI驅動的機器人,使用神經網絡來看人的面孔,預測其表情並試圖用自己的面孔複製它們。
來自韓國烏爾桑國家科學技術研究所的科學家也已經過來帶有使用傳感器記錄口頭和非語言表達數據的面膜。
所謂的個性化皮膚集成面部界面(PSIFI)系統執行無線數據傳輸,從而實現實時情感識別。
它的開發人員Jiyun Kim認為,可穿戴設備可用於虛擬現實中的數字禮賓等應用,這些應用程序根據用戶的情感(例如音樂,電影和書籍的建議)提供定制的服務。