要知道什麼
- GPT-4o 的系統卡報告概述了 OpenAI 對人們在情感上依賴 ChatGPT 語音模式的擔憂。
- ChatGPT 語音模式下的聲音非常逼真,給人一種使用者正在與人交談的錯覺。
- 報告強調,語音模式可以幫助某些人,同時影響其他廣泛依賴或過度依賴其答案的人。
ChatGPT 的高級當它第一次宣布的時候。但根據最近的一份安全報告OpenAI 已經擔心其先進的語音模式(聽起來怪異地像人類的聲音)可能會導致用戶在情感上迷上人工智慧聊天機器人。
進階語音模式一直是 ChatGPT 最受期待的功能之一。它可以進行即時對話,在說話時發出「嗯」、「啊」等感嘆詞、模仿聲音、唱歌,甚至根據你的語氣確定你的情緒狀態。簡而言之,它是目前最逼真的人工智慧助理。但由於 ChatGPT 的語音模式如此強大且功能強大,因此很可能會被誤用。
OpenAI在其報告中提到:
「在早期測試期間…我們觀察到使用者使用的語言可能表示與模型建立了聯繫。例如,這包括表達共同紐帶的語言,例如“這是我們在一起的最後一天」。
語音模式也為人們「越獄」ChatGPT 提供了新的方式來執行各種操作,包括模仿他人。成為一個像人類一樣的對話者也可以讓人們更信任人工智慧聊天機器人,即使它們的輸出充滿錯誤和幻覺。
與 ChatGPT 語音模式的互動可以使「孤獨的人」受益,並幫助一些人克服對社交互動的恐懼。但 OpenAI 在報告中指出,廣泛使用也可能影響健康的人際關係,值得進一步研究。
儘管該報告表明 OpenAI 的透明度不斷提高,但其訓練數據仍然不那麼公開。誠然,OpenAI 對語音模式的廣泛使用可能導致的後果的擔憂並非沒有根據。但大多數技術都存在著對科技的過度依賴和依賴。直接從電影中走出來,不難看出語音模式的未來以及使用者如何與之互動。
即使在演示活動中,語音模式也被認為有點過於調情。因為它的天空聲音與史嘉蕾喬韓森的聲音相似接下來,很難不想起這部電影她,以及人工智慧模型擬人化所帶來的風險。