![]()
智東西
作者 王涵
編輯 冰倩
智東西2月9日報道,2月7日,字節跳動AI視頻生成模型Seedance2.0開啟灰度測試,該模型支持文本、圖片、視頻、音頻素材輸入,可以完成自分鏡和自運鏡,鏡頭移動后人物特征能夠保持一致。
字節Seedance團隊釋放出的飛書文檔中介紹到,Seedance2.0可精準還原參考圖的畫面構圖、角色細節,可以復刻參考視頻的鏡頭語言、復雜的動作節奏和創意特效。
其所生成的視頻支持平滑延長與銜接,可按用戶提示生成連續鏡頭。Seedance2.0的編輯能力同步增強,支持對已有視頻進行角色更替、刪減、增加。
▲女士優雅地曬衣服(來源:Seedance官方)
在海外社交平臺X上,Seedance2.0的討論熱度居高不下。一位學習了7年數字電影制作的網友在體驗后說,這個模型(Seedance2.0)是唯一一個讓他感到害怕的模型,電影行業的所有崗位幾乎都要消失了。90%他所學習到的技能,Seedance2.0都能實現。
![]()
![]()
▲數字電影制作學習者評論(來源:X)
產品設計師、用戶體驗(UX/UI)設計師Linus Ekenstam看完Seedance2.0的案例后說:“它會讓互聯網崩潰,百分之百。 ”
![]()
▲產品設計師評價(來源:X)
游戲科學創始人兼CEO、《黑神話·悟空》制作人馮驥在體驗了Seedance2.0后還專門發了微博,稱贊該模型為“當前地表最強的視頻生成模型。”并且很慶幸今天的Seedance2.0來自中國。但他也從其中看出了假視頻泛濫與信任危機,因為“逼真的視頻將變得毫無門檻。”
![]()
▲馮驥微博(來源:新浪微博)
但是Seedance2.0也并不完美,在字節Seedance團隊發出的飛書文檔《Seedance2.0使用手冊》中,有用戶在評論區中反映,使用同樣的提示詞和素材,生成的視頻在精細化控制上卻不太行。
![]()
▲飛書文檔用戶評論(來源:飛書)
并且在一個官方案例中,Seedance2.0生成視頻的中文字幕還是會出現老生常談的中文亂碼情況。
![]()
▲官方案例錯誤(來源:飛書)
這個模型真的有這么“恐怖”嗎?
智東西第一時間體驗了Seedance2.0,Seedance2.0所生成的視頻畫風、場景和人物的一致性較高,不會發生畸變現象。模型可以根據其自己對劇情的理解添加運鏡和剪輯,聲效上也可以實現提示詞和參考素材的要求。但在提示詞較為簡單或模糊的情況下,Seedance2.0在動畫人物的面部情感表達上還有些僵硬。
體驗地址:
https://jimeng.jianying.com/ai-tool/home
一、能自動添加運鏡,全模態素材均可參考
2025年12月16日,Seedance1.5 pro模型發布,在音視頻聯合生成、音畫同步、多語言、運鏡以及語言理解方面進行了提升。
Seedance2.0預計在明天正式發布,目前在即夢AI官網可以充值會員付費體驗,在小云雀App中則有三次免費體驗機會。
Seedance2.0支持文本、圖片、視頻和音頻作為參考素材輸入。用戶可以同時給它最多9張圖片、3段視頻和3段音頻作為參考,指定動作、運鏡、人物、場景、特效、聲效等,Seedance2.0就可以根據參考材料和提示詞要求,合成視頻。但為了保護隱私,Seedance2.0目前暫不支持上傳包含寫實真人臉部的圖片素材。
Seedance2.0可精準還原參考圖的畫面構圖、角色細節,還支持鏡頭語言、復雜的動作節奏、創意特效的復刻。其所生成的視頻支持平滑延長與銜接,可按用戶提示生成連續鏡頭。
Seedance2.0的編輯能力也同步增強,支持對已有視頻進行角色更替、刪減、增加。
如果沒有參考素材也沒關系,只需要一段簡單的提示詞,該模型就可以根據所描述的情節自動規劃分鏡以及運鏡,還能在劇情需要的地方實現慢動作、鏡頭搖晃等效果。
在一致性上,Seedance2.0在生成視頻的同時就可以生成匹配的音效和配樂,并且支持口型同步和情緒匹配。
Seedance2.0所生成視頻中的角色和場景還可以在多個鏡頭之間保持一致性,用戶可以用該模型生成一段包含多個鏡頭切換的完整片段。
二、體驗:人物場景一致性高,汗水灑落可以“以假亂真”
智東西上手體驗了Seedance2.0模型,主要考察模型的自運鏡、角色場景一致性和角色替換方面的能力。
Seedance2.0所生成的視頻畫風、場景和人物的一致性較高,不會發生畸變現象。模型可以根據其自己對劇情的理解添加運鏡和剪輯,聲效上也可以實現提示詞和參考素材的要求。但在提示詞較為簡單或模糊的情況下,Seedance2.0在動畫人物的面部情感表達上還有些僵硬。
首先,我們輸入提示詞:
特寫,焦距50mm,扎馬尾的女生坐在窗邊,微笑時有梨渦,在咖啡廳的桌面上的筆記本上寫著什么,偶爾有思考的停頓,背景虛化呈現,咖啡館的木質桌沿,柔光打在面部,突出輕松的氛圍,咖啡廳中放著鋼琴曲。
Seedance2.0生成的視頻如下:
▲咖啡廳女孩生成片段(來源:智東西體驗)
在生成速度上,Seedance2.0生成一段10秒的視頻需要5分鐘左右。從視頻的畫面上來看,在提示詞沒有說如何運鏡的情況下,該模型自動在開頭加了一個漸進的運鏡,讓畫面劇情更加自然和流暢。在漸進的過程中,畫面中的人物、場景都沒有發生畸變,保持了一致性。
Seedance 2.0也可以很準確地還原國漫風,我們上傳了一張國風動漫角色圖,要求Seedance2.0參考圖片,生成一段人物自述片段。
![]()
▲國風參考圖(來源:Seedance 2.0)
Seedance 2.0生成的視頻就像是某個游戲的過場CG動畫,視頻的畫風和人物特點都與素材圖片一致,隨風飄動的絲帶和花瓣邊緣輪廓清晰,運動軌跡合乎常理,人物的嘴型和臺詞也可以對得上。
但是,在人物情緒的表達上,視頻中人物的面部肌肉沒有明顯的變化,情緒表達不夠飽滿。
▲國漫生成片段(來源:智東西體驗)
最近,一個韓國AI小狗接受采訪的視頻非常火,我們將視頻截圖發給Seedance2.0,讓它將原圖中的小狗換成小貓。
![]()
▲AI小狗視頻截圖(來源:小紅書)
可以看到,Seedance2.0生成的視頻很完整地保留了參考素材的風格,給小貓穿上了睡衣,并且讓小貓雙手張開,并不是簡單地換頭,小三花貓沒有被睡衣覆蓋的肚子部分也還原了真實小貓崽肚子的質感。
而且,在音頻上,Seedance2.0也準確地實現了提示詞中所說的25歲女記者和小孩的聲線。
▲AI小貓生成片段(來源:智東西體驗)
自媒體博主冰河用Lovart的Skill生成分鏡故事板,直接復制到Seedance2.0中,他說該模型所生成的視頻比他用ComfyUI做的還細致。
▲自媒體博主冰河制作視頻片段(來源:X)
AIGC藝術家DynamicWang用Seedance2.0制作了一個模仿Nike品牌廣告風格的短片,短片中共出現了四位不同族裔的女性,每一位角色的身材和肌肉線條都很符合其所進行的運動的標準,且鏡頭角度變動后,角色的臉部特征依舊保持一致。
短片中的運鏡也十分自然,沒有拼接痕跡,慢動作、角度移動的位置都很準確,符合劇情需要。
從第一位體操女孩流暢的翻轉跳躍可以看到,Seedance2.0直接攻破了“AI生成不了體操視頻”這個難題。拳擊女生和跑步女生的汗水以及游泳女生濺起的水花,都沒有了此前AI生成的“黏膩感”。
▲DynamicWang制作視頻
在小云雀App中,有不少用戶都上傳了自己用Seedance2.0生成的視頻片段。
有李小龍對戰日本武士:
▲用戶體驗案例(來源:小云雀App)
真人版七龍珠:
▲用戶體驗案例(來源:小云雀App)
還有仙俠竹林對決:
▲用戶體驗案例(來源:小云雀App)
結語:Seedance2.0降低表達門檻,但提高了對創作者的敘事能力要求
從各路大神的體驗、官方案例以及智東西自己的體驗視頻看下來,Seedance2.0最突出的就是運鏡和剪輯能力以及人物和場景的一致性。但其在情感表達的細膩度、中文文本的呈現等方面仍有提升空間。
從這一點看,或許Seedance2.0還不足以徹底改變影視界,但Seedance2.0的出現,無疑降低了專業表達的門檻,讓更多人有工具可以將想法可視化。
同時,此類AI視頻制作模型也可能加劇內容市場的同質化競爭,并對創作者的原創性、審美和敘事能力提出更高要求。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.