近日,科技界迎來了一項(xiàng)創(chuàng)新突破,Stability AI 公司推出了一款名為 Stable Virtual Camera 的全新人工智能模型,該模型能夠?qū)㈧o態(tài)圖片轉(zhuǎn)化為極具沉浸感的3D視頻,引起了廣泛關(guān)注。
Stable Virtual Camera 與傳統(tǒng)的3D動畫制作方式大相徑庭,它摒棄了繁瑣的場景建模過程,而是借助先進(jìn)的AI擴(kuò)散技術(shù),輕松實(shí)現(xiàn)逼真的相機(jī)運(yùn)動和深度效果。這一創(chuàng)新標(biāo)志著AI在視頻生成領(lǐng)域的能力邁上了新的臺階。
據(jù)悉,用戶只需提供一張或最多32張圖片,Stable Virtual Camera 便能根據(jù)預(yù)設(shè)或用戶自定義的相機(jī)運(yùn)動效果,生成生動的3D視頻。該工具內(nèi)置了14種預(yù)設(shè)的運(yùn)動路徑,涵蓋了360°旋轉(zhuǎn)、8字形軌跡、螺旋上升、滑軌變焦、平移、搖攝和翻滾等多種效果,同時支持正方形、豎屏和橫屏等多種視頻格式,極大地滿足了用戶的多樣化需求。
然而,Stable Virtual Camera 并非完美無缺。Stability AI 公司坦誠地指出,在處理復(fù)雜場景、不規(guī)則物體、水面反射以及精細(xì)的人體細(xì)節(jié)時,該模型可能會出現(xiàn)閃爍偽影和不一致的情況。盡管如此,這一創(chuàng)新成果依然令人矚目。
目前 Stable Virtual Camera 僅以研究許可的形式提供,尚未開放商業(yè)應(yīng)用。但好消息是,該模型的代碼已在 GitHub 上開源,模型權(quán)重也托管在 Hugging Face 平臺上,供研究人員和開發(fā)者自由探索和使用。
Stable Virtual Camera 的推出,無疑為視頻制作領(lǐng)域帶來了新的可能性和機(jī)遇。隨著技術(shù)的不斷進(jìn)步和完善,相信未來這一模型將在更多領(lǐng)域發(fā)揮巨大的潛力。