OpenAI 發佈了一款名為「Sora」的影片生成模型,並指這模型能夠根據文字指令創造出既真實又充滿想像力的場景。這款文字到影片的模型讓使用者能夠創造出長達一分鐘的真實影片。
從複雜場景到生動角色
根據 OpenAI 在網誌中的說明,Sora 能夠創建包含多個角色、特定類型的動作以及對象和背景的準確細節的複雜場景。它能夠理解物體在物理世界中的存在方式,準確解讀道具,並生成能夠表達豐富情感的引人入勝的角色。
靜態圖片變成影片
此外,Sora 也能夠基於靜態圖片生成影片,填補現有影片的遺失幀,或者將其延長。OpenAI 展示以 Sora 生成的影片,包括加州淘金熱期間的空中場景、看似從東京列車內部拍攝的影片等。
儘管許多影片存在 AI 生成的一些明顯「痕跡」,例如博物館影片中地板會「移動」。OpenAI 承認該模型在一些複雜場景會遇到困難,但整體成果仍然相當令人印象深刻。
Introducing Sora, our text-to-video model.
— OpenAI (@OpenAI) February 15, 2024
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
仍在評估
目前,Sora 僅對正在評估潛在危害和風險的「紅隊成員」開放。OpenAI 也向一些視覺藝術家、設計師和電影製作人提供訪問權,以獲取反饋。