在一千晚的瓶子裡的精靈的原始故事中,精靈威脅要殺死釋放他的漁夫 - 這個故事似乎引起了共鳴Openai,隨著它繼續追求先進的語音克隆和合成音頻和視頻工具,它帶有主要風險。
在博客文章該公司表示,測試的結果表明,其語音引擎非常擅長DeepFake語音克隆和合成音頻,因此幾乎可以肯定會在廣泛發佈時被濫用,這促使ChatGpt Maker稍微放棄設置產品,直到建立更強大的規則和更強大的規則和部署指南。
語音引擎於2022年開發,是對Open AI的文本到語音API中已經使用的技術的更新和對話模式chatgpt。博客說,語音引擎“使用文本輸入和單個15秒的音頻樣本來生成與原始揚聲器非常相似的自然語音。值得注意的是,具有單個15秒樣本的小型模型可以創造出情感和現實的聲音。”該公司尚未透露用於訓練語音引擎的情感豐富數據的來源,但告訴TechCrunch該模型“經過了有執照且可公開的數據的組合培訓”。
也許開始了解一種免費,易於訪問的工具的全面含義,該工具可以重新創建其具有15秒樣本的任何人的逼真的聲音,該公司現在說,它正在“採取謹慎而明智的方法來進行更廣泛的釋放,這是由於潛在的潛力綜合語音濫用。 ”
博客文章說:“我們希望開始就合成聲音負責部署以及社會如何適應這些新功能的對話。” “基於這些對話和這些小型測試的結果,我們將對是否以及如何按大規模部署這項技術做出更明智的決定。”
根據Arstechnica的報告條款和條件對於測試語音引擎的公司,禁止“無同意或法律權利”對個人或組織的模仿。他們要求明確披露使用AI來克隆聲音的使用,並告知任何被克隆的人的同意。另外,打開AI使用水印,使使用語音引擎產生的音頻更容易。
儘管如此,該公司清楚地表明,停止生成的AI速度列車不是一種選擇,並且可以通過社會來改變時代。 “我們希望語音引擎的預覽既強調了它的潛力生成模型它說。首先,它建議將語音身份驗證作為銀行業和其他敏感用例的ID驗證的一種手段,從而增加了對AI的公共教育,“探索“探索保護在AI中使用個人聲音的政策”,並加速Livices檢測,水印和其他工具,以將真實的聲音與綜合聲音區分開來。
值得一提面部識別軟件及其文本到視頻API Sora如此驚人,以至於被定位以改變世界。