阿里開源通義萬相首尾幀生視頻14B模型,宣布成為業(yè)內(nèi)首個開源的百億級參數(shù)規(guī)模首尾幀生視頻模型,可根據(jù)用戶指定的開始和結(jié)束圖片,生成一段能銜接首尾畫面的720p高清視頻,滿足延時攝影、變身等更可控、更定制化的視頻生成需求。用戶已可在通義萬相官網(wǎng)直接免費體驗該模型,或在GitHub、Hugging Face、魔搭社區(qū)下載模型本地部署后進(jìn)行二次開發(fā)。
首尾幀生視頻比文生視頻、單圖生視頻的可控性更高,是最受AI視頻創(chuàng)作者歡迎的功能之一,但這類模型的訓(xùn)練難度較大,對模型的指令遵循、視頻內(nèi)容與首尾幀一致性、視頻過渡自然流暢性等均有高要求。
據(jù)介紹,基于現(xiàn)有的Wan2.1文生視頻基礎(chǔ)模型架構(gòu),通義萬相首尾幀生視頻模型進(jìn)一步引入了額外的條件控制機(jī)制,通過該機(jī)制可實現(xiàn)流暢且精準(zhǔn)的首尾幀變換;在訓(xùn)練階段,團(tuán)隊還構(gòu)建了專門用于首尾幀模式的訓(xùn)練數(shù)據(jù),同時針對文本與視頻編碼模塊、擴(kuò)散變換模型模塊采用了并行策略,這些策略提升了模型訓(xùn)練和生成效率,也保障了模型具備高分辨率視頻生成的效果。
基于該模型,用戶可完成更復(fù)雜、更個性化的視頻生成任務(wù),可以實現(xiàn)同一主體的特效變化、不同場景的運鏡控制等視頻生成。