在AI視頻生成領域,一場激烈的較量在2025年4月中旬悄然上演,主角是兩位老對手——快手與字節(jié)跳動。
4月14日,字節(jié)跳動低調(diào)上線了視頻生成基礎模型Seaweed的官網(wǎng),并發(fā)布了技術報告。這款模型以70億參數(shù)實現(xiàn)了超越同類140億參數(shù)模型的效果,訓練效率也極高,僅需66.5萬H100 GPU小時,遠低于同類模型的百萬GPU小時標準。
相比之下,快手在視頻生成領域的聲勢則浩大得多。4月15日,快手高級副總裁蓋坤在一場發(fā)布會上,高調(diào)宣布了快手在視頻生成領域的最新成果,包括圖像生成基座模型“可圖2.0”、視頻生成基座模型“可靈2.0”,以及多模態(tài)編輯功能MVL。蓋坤表示,“可靈”的發(fā)布一度引領了視頻生成賽道,并創(chuàng)造了上線三個月服務超260萬用戶的記錄。
“可靈2.0”在文生視頻和圖生視頻能力上均超越了谷歌的視頻模型Veo2,在與老對手Sora的較量中,文生視頻模型的勝負比甚至達到了367%。這一成績無疑為快手在視頻生成領域的領先地位增添了重量級的籌碼。
盡管字節(jié)跳動的Seaweed在性能上略遜于快手的上一代模型“可靈1.6”,但其部署成本極低,僅需40GB顯存的單GPU就能實現(xiàn)高分辨率視頻的生成,這使得中小團隊和個人創(chuàng)作者也能輕松負擔得起AI視頻創(chuàng)作。這一優(yōu)勢無疑為Seaweed在市場上的推廣鋪設了道路。
在實用性方面,字節(jié)和快手都意識到,單一的視頻生成模型無法滿足用戶的多樣化創(chuàng)作需求。因此,快手在發(fā)布“可靈2.0”的同時,還推出了圖像生成模型“可圖2.0”,以增強指令遵循能力和審美能力。而字節(jié)跳動的Seaweed則結合了長上下文調(diào)優(yōu)技術和長敘述視頻生成技術,使得生成的視頻能夠保持全局文本描述和分鏡描述的一致性。
對于快手而言,“可靈”的出現(xiàn)不僅為其帶來了短視頻之外的新增長曲線,還撬動了快手的其他業(yè)務。據(jù)快手財報顯示,“可靈”在開放API服務后,累計營收已超過1億元,用戶數(shù)量也實現(xiàn)了大幅增長。而對于字節(jié)跳動來說,Seaweed的發(fā)布則是其AI改革后的一個注腳,標志著字節(jié)跳動在視頻生成領域邁出了堅實的一步。
在這場較量中,雙方不僅比拼了模型性能和落地成本,還展現(xiàn)了各自在AI領域的戰(zhàn)略布局和技術實力。隨著AI技術的不斷發(fā)展,視頻生成領域的戰(zhàn)火無疑將更加激烈。