繼文字(ChatGPT)和圖像(Dall-E)之後,OpenAI 正在處理影片!該公司推出了 Sora,這是一種新的人工智慧模型,可透過簡單的文字查詢創建逼真的影片。第一個結果是令人不安的現實。
OpenAI 不想停留在圖像或文字上。 ChatGPT 的創建者 Sora 正在向影片發動攻擊。這種「文字到影片」的人工智慧模型可以產生一分鐘的剪輯同時始終保持視覺品質。
一分鐘影片的逼真品質
已經有影片的人工智慧模型,例如Google的 Runway,但產生的剪輯不會超過幾秒鐘。因此,Sora 走得更遠,最重要的是,所生成影像的逼真品質令人驚訝。 OpenAI 的老闆 Sam Altman 根據網路使用者的要求分享了其中的幾項創作,並在該公司的網站上分享了一些內容。提出有幾個同樣令人驚訝。
https://twitter.com/sama/status/1758206825756000613
https://twitter.com/sama/status/1758206987094147252
https://twitter.com/OpenAI/status/1758192965703647443
https://twitter.com/OpenAI/status/1758192957386342435
Sora 能夠產生包含多個角色、特定攝影機運動以及主題及其周圍環境的細節的複雜序列。 “該模型不僅包括使用者在查詢中要求的內容,還包括事物在物理宇宙中應該如何存在»,該公司解釋。
目前,Sora 是 OpenAI 交給少數幸運兒的研究計畫:藝術家、精心挑選的內容創作者和安全研究人員。創建影片需要幾個小時的計算時間,而不是幾天。
此外,Sora 在準確模擬複雜序列的物理原理以及因果實例方面也存在弱點。該公司給了一個人咬了一塊餅乾的例子,但餅乾中沒有出現被咬的痕跡。空還可以左右反轉。
對於那些擔心失去生計的電影製作人來說,請放心:將 Sora 生成的 90 分鐘剪輯拼接在一起,不可能創作出連貫的電影!對於相同的查詢,語言模型影片每次都略有不同,這阻礙了剪輯之間的連續性。
另一方面,Sora 似乎是為社交網路上想要分享簡短內容的內容創作者或需要動畫廣告的廣告商而設計的。然而,關於數據的安全性和來源的一些最重要的問題仍有待解決。
Sora 將拒絕違反其使用條款的請求:暴力和色情內容、仇恨、與名人相似或複製受版權保護的作品。建立了一個檢測系統來確定是否使用該模型產生了視訊。最後,Sora 接受了 OpenAI 許可的數據以及公共領域內容的培訓。這可能並不能阻止投訴的堆積!