文章開始之前,先給大伙看個動圖吧。

(圖源:嗶哩嗶哩)
很酷炫的大片場景對吧,材質和氛圍都很到位。
但如果我告訴你,這片子是純AI生成的呢?我想應該會有不少讀者感到驚訝,或是試圖回去從片段里找到穿幫的地方吧。
這些年,技術的飛速發展,讓我們已經開始分不清特效和AI之間的區別,制作自己喜歡的視頻,似乎從來沒有這么簡單過。
但估計大多數人跟我一樣,都是光看不練,或者說練過,但從入門到入土。
原因就一句話:這玩意太容易勸退了。
想要完成度高一點,就得自己部署個模型,在ComfyUI上搞點穩定可控的工作流。但那一堆密密麻麻的參數,就連我這個鼓搗AIGC好些年的老手都還在摸索,只能說普通人大概率是調不明白的。
想隨便玩玩的,倒是可以試試Sora和Veo,就是這些網站不僅價格不低,而且效果相當于抽卡,每抽一發就要花錢,國內的大伙也很難用上。
誰能想到,在大伙被折磨了許久后,國內的字節跳動卻悄悄憋了個大招。
![]()
(圖源:即夢)
就在這個星期,字節跳動旗下的視頻模型Seedance 2.0突然上線。沒有漫長的排隊申請,也沒有遮遮掩掩的內測邀請,它在春節這個年度最大流量窗口,就這么直接扔給了大眾。
用完后我只想說,想自己搓AI視頻的朋友們,好日子來了。
生成15秒,排隊一小時
先說怎么用上。
Seedance 2.0目前已經在即夢平臺上線,目前會員用戶(至少69元)可以直接使用最新模型,電腦web版、手機APP都能用,預計過幾天會全量開放。
如果不想充錢,也可以用字節旗下的小云雀,目前登錄新用戶贈送三次Seedance 2.0免費生成機會,同時每天贈送120積分。
用完免費機會后,用Seedance 2.0生成視頻每秒耗費8積分,也就是每天最多免費生成15秒視頻內容,拿來嘗鮮倒是沒什么問題。
![]()
(圖源:雷科技)
再看能力層面。
大伙都知道,以前國內大部分視頻模型只能演默片,就連字節這邊,也是到了去年年底的Seedance 1.5版本才加上配音的。
而現在,Seedance 2.0的聲音和畫面已經配合得出神入化了。
這套全新的模型,在生成視頻的同時可以生成匹配的音效和配樂,并且支持口型同步和情緒匹配,確保角色說話的時候,嘴型是對的,表情和語氣也能對上。
為了驗證它的本事,我輸入了一段簡單的提示詞:第一人稱視角,坐在老式綠皮火車的窗邊,看著窗外飛馳而過的田野,桌上的玻璃杯微微震動。
或許是因為想體驗的人太多,我居然排了一個多小時的隊,才等到視頻生成完畢。
![]()
(圖源:雷科技,用Seedance 2.0制作)
說實話,這個畫面精細度并不讓我意外,真正讓我有點起雞皮疙瘩的是聲音。視頻里不僅有柔和的BGM,還有火車壓過鐵軌那種特有的“況且況且”的低頻節奏聲,甚至當鏡頭掃過桌上的玻璃杯時,杯子里的水因為震動泛起的波瀾都清晰可見。
看著窗外的田野和西下的斜陽,真的很難想象這一切都不曾存在過。
這種“原生音效”的體驗,和后期硬貼上去的配音確實是兩個不同的概念。它說明AI不僅僅是在畫畫,它理解了畫面里發生了什么,并且知道在這個場景下,環境里應該發出什么聲音。
這就有點意思了。
但這還不夠,光有聲音還不行,視頻還得穩。
以前用AI做視頻,最怕的就是人物“整容”。前一秒主角還是個歐美硬漢,頭一轉就變成了日系小鮮肉,這種問題在動作幅度大的場景里尤為明顯。
為了測試Seedance 2.0的一致性,我特意加大了難度,生成了一段“雨夜巷戰,兩個武術家在積水中激烈搏斗”的視頻。
至于視頻主題嘛,就叫Goat VS Goat吧。
![]()
(圖源:雷科技,用Seedance 2.0制作)
結果相當令人驚喜。在長達十幾秒的打斗鏡頭里,兩位角色的臉部特征居然鎖住了。哪怕是他在飛身踢腿、雙方換位的時候,衣服的紋理和五官的輪廓都沒有發生崩壞。
雖然在某些極度模糊的運動幀里還是能看到一點涂抹感,但相比于上一代模型那種每三秒換張臉的鬼畜效果,這已經是質的飛躍了。
可以說,在基礎素質這一塊,Seedance 2.0已經是一個高度能用的工具了。
從文案到成片一人跑通,但語音錯亂與畫面亂碼依舊存在
基礎測試穩住了,接下來咱們得上點強度。
畢竟對于大多數想做自媒體的朋友來說,我們不僅希望AI能畫得像,更希望它能懂我們的腦洞。
為此,Seedance 2.0這次引入了一個叫自分鏡和自運鏡的概念。
簡單說,就是它可以根據你的描述自動規劃分鏡和運鏡,只需要告訴它需求是什么,它自己就可以決定怎么拍。
小雷試著輸入了一句很簡單的指令:一個穿著運動鞋的人在松軟的沙灘上用力奔跑,夕陽西下。
這句話的難點,不僅在分鏡上,更在于對物理世界的理解。
因為沙子是流體,腳踩下去會陷落,抬起來會帶起沙粒,這些都是以前視頻生成很難還原出來的細節。
![]()
(圖源:雷科技,用Seedance 2.0制作)
在生成的視頻里,我確實看到了腳掌陷入沙地的凹陷感,每一次蹬地都有沙粒向后飛濺,而且飛濺的拋物線很自然,沒有出現那種沙子浮在空中的反重力現象,甚至連小腿肌肉隨著跑步節奏的擺動,都帶有明顯的顫動感。
說實話,看到這個結果的時候我腦子里閃過一個念頭:這個效果,已經可以直接放到短視頻里用了。
按照這個效果,我能不能直接用工作流,制作出一段60秒的Brain Rot短視頻?
于是乎,我先找來了字節的另一個AI助手豆包,先讓它根據我的需求,生成大致的九宮格視頻分鏡,然后就是生成一段非常標準的“選擇紅門還是藍門”的Brain Rot短視頻文案。
![]()
(圖源:雷科技)
吐槽一下,目前豆包對分格圖片的理解依然不是很好,這一點就耗了我不少時間。
接著,我把分鏡和劇本扔給了Seedance 2.0。
盡管Seedance 2.0目前最長支持15s的視頻,但是通過多模態輸入,我們可以把上一個視頻的末尾作為素材輸入下一個視頻的需求,以此完成多個鏡頭銜接和角色一致性的維持,最后再進行人工剪輯拼接。
整個流程下來,做這一段內容,耗費我了半天的時間。
![]()
(圖源:雷科技,用Seedance 2.0制作)
怎么說呢,盡管Seedance 2.0的中文生成水平遠超國外競品,但是在實際生成的內容里,依然會出現字幕和語音對不上的現象,畫面之中的文本亂碼更是客觀存在的,而且幾乎無法避免。
因為目前有最多15s的限制,所以只要我準備的文本內容多一些,成品的語音就會以非常不自然的高語速把整段文本讀出來。
而且啊,我這次生成的視頻也就相對長一點,但是你可以明顯注意到Seedance 2.0對于開門這個動作的處理總是奇奇怪怪的,哪怕我把免費額度都用完了,但也沒有生成更好的效果,只得作罷。
至于抽卡的問題嘛...至少對于目前的視頻生成應用來說都是不可避免的。
總結
在我看來,Seedance 2.0的出現,算是給國內的創作者打了一針強心劑。
不可否認,從純粹的技術指標或者內容產出來看,Sora在超長鏡頭的連貫性和畫面的藝術感上可能依然是行業標桿。
![]()
(圖源:Sora)
但在科技圈,有一個很樸素的道理:好用的技術,首先得是能用到的技術。
就目前來說,Seedance 2.0幾乎沒有使用門檻,人人都能輕松注冊使用,價格相比同類競品甚至還挺有性價比的。
知名自媒體博主“影視颶風”Tim也在今天盛贊了Seedance2.0模型的生成結果,他認為模型生成視頻的精細程度、攝像機的運動情況、分鏡連續性效果以及音畫的匹配度都很出色,稱其為“改變視頻行業的AI”。
從某種意義上來說,影像行業從業者的看法,比自媒體的評價和大模型榜單的跑分要重要得多。
我敢打賭,在未來半年內,大家會在抖音、視頻號里刷到大量由Seedance 2.0生成的短劇、懸疑解說甚至是帶貨視頻。那些不需要復雜演技、主打視覺奇觀或者劇情反轉的內容,將是第一波被AI徹底改造的領域。
你敢相信,從來沒有任何美術經驗、動畫經驗,乃至視頻經驗的我,也能做出這樣流暢的角色動畫嗎?
![]()
(圖源:雷科技,用Seedance 2.0制作)
當然,它還是有缺點的。
比如目前的算力成本依然很高,普通用戶如果不大規模氪金,生成速度可能會讓他們等到花兒都謝了,而且這種抽卡式的創作邏輯,注定了它還不能完全替代那種需要精確控制的傳統影視制作。
此外,除了訓練數據的來源爭議,視頻大模型帶來的“真假難辨”的視頻,還將引發系列的社會問題,比如DeepFake視頻詐騙,比如AI視頻假新聞、新型網暴、人身侵權等等……這些都值得社會關注。
但我相信,隨著AI技術成熟,這些問題都會得到企業和部門的妥善解決。
在我看來,Seedance 2.0不需要替代好萊塢。它只需要讓每一個普通人,在腦子里蹦出一個好故事的時候,能低成本地把它變成畫面,這就足夠了。
畢竟,路是一步步走出來的,而不是畫餅畫出來的。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.