Chatgpt仍在通過查找新用途(包括語音聊天)來填補頭條新聞。然而,其製造商Openai面臨更多的政府審查,可能導致禁令,罰款和要求,甚至刪除數據和模型,尤其是隨著生物識別數據和年齡驗證的關注,其疑慮逐漸升高。
Sensory希望Chatgpt使用語音與消費者交談
AI語音公司感官表示其SensoryCloud服務器可以將語音轉換為文本和背面,並以合成語音響應輸入。有了該代碼,感覺開發人員正在努力將支持語音的消費電子與基於文本的電子設備集成chatgpt。
該公司創建了由VoiceChat軟件提供支持的語音聊天引擎的演示。在其中,旅行者通過Chatgpt Concierge模型預訂了酒店房間。
據報導,據報導,感覺避免了不可預測和不正確的響應,在開發人員中被稱為AI幻覺,並仔細選擇了響應。
語音助手使用GO,GRPC,NVIDIA的Triton和Amazon的全球加速器。
Sensory的首席執行官Todd Mozer在新聞稿中說:“將這項強大的新技術與我們強大的聲音AI堆棧相結合是改變市場的遊戲改變者。”它“允許我們的客戶創建新一代的無限能力的語音助手,並根據各種定制域名量身定制。”
(類似的代碼也是宣布由通用電動機使用chatgpt的AI語音助手。 )
生成AI的數據保護困境
對於Openai來說,這可能是更容易的任務,尤其是緩解恐懼在歐盟的一些政府官員中。
監管機構和隱私倡導者希望該公司在構建算法,產品和服務的關鍵方面保持透明。例如,Openai被要求證明它通過同意或“合法利益”而合法地收集了歐盟合法算法的培訓數據(包括個人人口統計信息)。
歐洲數據保護委員會兩週前創建了工作隊協調CHATGPT的調查和監管執行。
懷疑已經促使意大利政府禁止Chatgpt使用。
官員給了Openai直到4月30日為了表明它符合同意和合法的利益法規。例如,該公司必須顯示一個通知,描述了Openai的數據政策,並要求意大利居民宣布他們至少已有18歲。意大利還希望OpenAI允許用戶和非用戶可以糾正或刪除該服務錯誤生成的個人數據。
一些觀察家說,Openai可能不可能遵守發達經濟體中規則的不斷增長和市場成熟。
一個報告在麻省理工學院技術評論中說,AI模型從Internet收集內容,使開發人員很難遵守監管制度。 Openai可能被迫刪除模型和數據,或者面臨罰款和更多禁令。
但是,並非所有歐洲國家都採取了艱難的方法:愛爾蘭的數據保護專員海倫·迪克森(Helen Dixon)說在上週的彭博社活動中,諸如Chatgpt之類的生成AIS需要受到監管,但是理事機構不應急於禁止在法庭上“真的不會站起來”。