![]()
Seedance2.0就是Seedance2.0時(shí)刻,不是所謂的“DeepSeek時(shí)刻”。
01
轟動(dòng)效應(yīng)
這幾年AI如賀歲片一般成為春節(jié)的頂流。2024年是Sora,2025年是DeepSeek R1,2026年輪到了字節(jié)的Seedance 2.0視頻生成大模型。
當(dāng)其他大廠還在紅包大戰(zhàn)中打得不可開交,字節(jié)向市場(chǎng)扔出的Seedance 2.0,憑借廣泛的自發(fā)傳播引發(fā)轟動(dòng)效應(yīng)。鑒于這幾年AI拼命往春節(jié)擠,建議以后專門設(shè)立一個(gè)“賀歲檔AI”,大概率比賀歲檔電影好看。
作為國(guó)產(chǎn)視頻生成模型的Seedance 2.0,這次又往前邁了一步。如果說(shuō)去年推出的國(guó)產(chǎn)大模型DeepSeekR1只是接近世界頂尖模型,Seedance 2.0則真正完成了超越。
據(jù)字節(jié)官方稱,Seedance 2.0采用稀疏架構(gòu)來(lái)提升訓(xùn)練和推理效率,基于統(tǒng)一的多模態(tài)視頻生成架構(gòu),模型涌現(xiàn)出了更強(qiáng)大的泛化能力,由此實(shí)現(xiàn)了較高質(zhì)量的音畫同步生成,還可支持組合的多模態(tài)參考、視頻編輯、視頻延長(zhǎng)等功能。
引起討論的關(guān)鍵在于,Seedance 2.0大幅降低了專業(yè)創(chuàng)作的門檻與成本。相比以往的視頻生成模型,普通用戶可一句話描述想要的畫面,生成的視頻動(dòng)作自然、鏡頭連貫,不再是那種一眼假的AI視頻了。
復(fù)雜場(chǎng)景Seedance 2.0也能處理,比如多人互動(dòng)、多鏡頭轉(zhuǎn)場(chǎng),生成質(zhì)量在目前的視頻模型里屬于第一梯隊(duì)。官方介紹稱,該模型非常適合創(chuàng)作從開篇到高潮的完整故事線,保證專業(yè)級(jí)的敘事流暢度。
在社交平臺(tái)X上,甚至出現(xiàn)一些教海外用戶注冊(cè)并使用Seedance 2.0的教程貼。消息傳遞到國(guó)內(nèi),評(píng)論區(qū)中夾雜著中國(guó)AI用戶的真實(shí)心聲——真是風(fēng)水輪流轉(zhuǎn)。
也許不必再沉溺于過(guò)去的“DeepSeek時(shí)刻”,Seedance 2.0就是當(dāng)下的Seedance 2.0時(shí)刻。無(wú)論是從模型性能還是從引起的轟動(dòng)效應(yīng)來(lái)看,它都值得定義屬于自己的時(shí)刻。
字節(jié)旗下產(chǎn)品爭(zhēng)相接入Seedance 2.0,試圖接住這潑天的流量。2月12日,Seedance 2.0全面接入豆包和即夢(mèng)產(chǎn)品,并上線火山方舟體驗(yàn)中心。
有網(wǎng)友曬出使用Seedance2.0制作的阿姆斯特丹(當(dāng)今的紐約市)模擬器,與Google的Genie3世界模型進(jìn)行對(duì)比,“與之前的模型不同,Seedance2.0真正準(zhǔn)確地描繪了1670年的城市風(fēng)貌”。
近幾天我們?cè)谧止?jié)旗下產(chǎn)品小云雀、豆包、火山引擎內(nèi)測(cè)試了幾次Seedance 2.0,生成的視頻效果確實(shí)很棒,尤其多鏡頭轉(zhuǎn)換和人物真實(shí)感上,用“影視級(jí)”評(píng)價(jià)并非夸張。
但2月12日這天,我們繼續(xù)用小云雀上的Seedance 2.0生成15秒的視頻(會(huì)員可用),結(jié)果連續(xù)六次都生成失敗,而豆包和火山引擎上的Seedance 2.0能正常使用。
Seedance 2.0自發(fā)布之初,就以“導(dǎo)演級(jí)”多鏡頭敘事和原生音畫同步能力,被公認(rèn)為是當(dāng)前視頻生成領(lǐng)域的突破性技術(shù)。
影視颶風(fēng)創(chuàng)始人Tim體驗(yàn)完Seedance 2.0,用一段長(zhǎng)達(dá)9分鐘的視頻(非廣告)自發(fā)介紹,整個(gè)過(guò)程他都難掩震撼,多次連呼“恐怖”。“這不是一個(gè)小的技術(shù)革新,而是會(huì)推走行業(yè)所有過(guò)去流程和沉淀的一個(gè)海嘯。” Tim在評(píng)測(cè)視頻中如此評(píng)價(jià)。
杭州AI六小龍之一的游戲科學(xué)CEO馮驥,去年曾高度評(píng)價(jià)過(guò)DeepSeek R1,也奠定了他在AI圈的話語(yǔ)權(quán)。今年他稱Seedance 2.0為“殺死比賽”的里程碑產(chǎn)品,并用“領(lǐng)先”“全能”這樣的詞語(yǔ)盛贊。
馮驥認(rèn)為,Seedance 2.0可直接帶來(lái)影視領(lǐng)域的產(chǎn)能爆炸。“一般性視頻的制作成本將無(wú)法再沿用影視行業(yè)的傳統(tǒng)邏輯,開始逐漸趨近算力的邊際成本。內(nèi)容領(lǐng)域必將迎來(lái)史無(wú)前例的通貨膨脹,傳統(tǒng)組織結(jié)構(gòu)與制作流程會(huì)被徹底重構(gòu)。相信只要用過(guò)的朋友,都能很快理解這個(gè)預(yù)測(cè)絕非杞人憂天。”馮驥說(shuō)。
這個(gè)觀點(diǎn)也隔空得到著名導(dǎo)演賈樟柯的認(rèn)同,2月11日賈樟柯發(fā)微博說(shuō):“Seedance 2.0確實(shí)厲害,我準(zhǔn)備用它做個(gè)短片。”美國(guó)導(dǎo)演查爾斯·柯倫用Seedance2.0制作了《光環(huán)》電影版的預(yù)告片,并表示,“這款A(yù)I視頻軟件將顛覆好萊塢。”
![]()
這意味著,Seedance2.0的視頻生成能力已得到專業(yè)導(dǎo)演的認(rèn)可,由AI帶來(lái)的影視圈生產(chǎn)力變革也許就在眼前。
據(jù)字節(jié)跳動(dòng)官方介紹,為全面評(píng)估模型在多模態(tài)場(chǎng)景的綜合能力,團(tuán)隊(duì)協(xié)同影視領(lǐng)域?qū)<遥⒏采w音視頻生成、參考及編輯場(chǎng)景的綜合評(píng)測(cè)集及相關(guān)評(píng)測(cè)標(biāo)準(zhǔn)。在各項(xiàng)評(píng)測(cè)中,Seedance 2.0的綜合表現(xiàn)達(dá)到行業(yè)領(lǐng)先水平。
不過(guò),字節(jié)跳動(dòng)也坦言,模型在細(xì)節(jié)穩(wěn)定性、多人口型匹配、多主體一致性、文字還原精度和復(fù)雜編輯效果等方面仍有優(yōu)化空間。
Seedance 2.0還帶動(dòng)相關(guān)概念股上漲。2月11日,早盤Seedance概念繼續(xù)活躍,掌閱科技、歡瑞世紀(jì)、博納影業(yè)、德才股份3連板,榮信文化、捷成股份高開超10%。這顯示出在Seedance 2.0帶動(dòng)下,市場(chǎng)對(duì)AI短劇和影視商業(yè)化落地能力的認(rèn)可。
02
為什么是字節(jié)
自去年春節(jié)DeepSeek R1走紅以來(lái),Seedance 2.0是國(guó)內(nèi)第二個(gè)真正憑借技術(shù)火出圈的大模型。字節(jié)緊趕慢趕,還是花費(fèi)了一年的時(shí)間。
晚點(diǎn)曾報(bào)道,去年春節(jié)DeepSeek大火后字節(jié)面臨著很大壓力,模型一時(shí)間跟不上,產(chǎn)品那邊開始自主行動(dòng),很多都選擇接了DeepSeek。其中就包括即夢(mèng),提供了用DeepSeek優(yōu)化提示詞的服務(wù)。
字節(jié)豆包大模型視覺多模態(tài)生成方向負(fù)責(zé)人本是楊建朝,2025年7月,楊建朝宣布“暫時(shí)休息”并完成工作交接。2025年8月,豆包視覺基礎(chǔ)模型研究負(fù)責(zé)人馮佳時(shí)也宣布離職,并于12月加盟騰訊任AGI研究中心多模態(tài)團(tuán)隊(duì)負(fù)責(zé)人。
此后,字節(jié)多模態(tài)交互和世界模型團(tuán)隊(duì)由2024年從阿里加入字節(jié)的周暢負(fù)責(zé)。周暢直接由吳永輝領(lǐng)導(dǎo),并且他的管理范圍持續(xù)擴(kuò)大,其中就包括文生圖Seedream、文生視頻Seedance模型。這就意味著,Seedance 2.0正是由周暢領(lǐng)導(dǎo)的團(tuán)隊(duì)研發(fā)的。
今年1月,字節(jié)跳動(dòng)CEO梁汝波在全員會(huì)上說(shuō),字節(jié)今年的關(guān)鍵詞是 “勇攀高峰”,短期內(nèi)高峰是 “豆包 /Dola(豆包海外版)助手應(yīng)用”,重點(diǎn)是 “AI模型能力要做到行業(yè)前列,通過(guò)助手整合好已有業(yè)務(wù)”。
梁汝波或許也沒(méi)想到,年會(huì)剛過(guò)不久Seedance2.0就率先攀上了高峰。畢竟2個(gè)月前,字節(jié)剛發(fā)布Seedance1.5pro。當(dāng)時(shí)字節(jié)的官方介紹是,Seedance1.5Pro依托原生音視頻聯(lián)合架構(gòu)與精細(xì)化后訓(xùn)練,較好地實(shí)現(xiàn)了對(duì)多模態(tài)指令的遵循。
兩個(gè)月的時(shí)間里,Seedance視頻生成模型有了明顯的能力躍升,突破了單一鏡頭連貫性限制,可以實(shí)現(xiàn)多鏡頭連貫敘事。
這種能力演進(jìn)也折射出字節(jié)在視覺模型團(tuán)隊(duì)結(jié)構(gòu)上的變化,從以算法為核心的研究團(tuán)隊(duì),轉(zhuǎn)向以世界建模和工程體系為核心的綜合團(tuán)隊(duì)。而去年下半年字節(jié)seed組織架構(gòu)調(diào)整后,也呼應(yīng)了這種變化。
楊建朝離職后,周暢負(fù)責(zé)視覺模型的同時(shí),還接管了多模態(tài)交互與世界模型團(tuán)隊(duì)。這種架構(gòu)調(diào)整,更利于打通視頻生成從二維世界向真實(shí)的三維世界躍遷時(shí)的組織之間的溝通和交流。
在為什么是字節(jié)的問(wèn)題上,除了組織架構(gòu)和模型架構(gòu)能力的優(yōu)化,字節(jié)自有的短視頻數(shù)據(jù)平臺(tái)如抖音、TikTok,也具備天然優(yōu)勢(shì)。短視頻平臺(tái)擁有海量用戶基礎(chǔ)和視頻數(shù)據(jù),為模型訓(xùn)練提供豐富素材。
業(yè)內(nèi)有個(gè)共識(shí),模型訓(xùn)練算力只是敲門磚,數(shù)據(jù)才是核心基礎(chǔ)。“短視頻平臺(tái)每天生產(chǎn)數(shù)億條真實(shí)行為視頻數(shù)據(jù),盡管許多公開數(shù)據(jù)集能買到或者通過(guò)網(wǎng)絡(luò)爬蟲獲得,但數(shù)據(jù)量和平臺(tái)自帶的規(guī)模不是一個(gè)量級(jí)。”一位算法工程師告訴我們。
除了數(shù)據(jù)規(guī)模和實(shí)時(shí)數(shù)據(jù)優(yōu)勢(shì),短視頻平臺(tái)還天然擁有大量卡點(diǎn)剪輯樣本、爆款節(jié)奏結(jié)構(gòu)和高互動(dòng)內(nèi)容風(fēng)格,也有助于幫助模型公司迅速獲得評(píng)估模型能力的標(biāo)準(zhǔn)。
這也能解釋國(guó)內(nèi)TOP級(jí)視頻生成模型,為何都集中在擁有短視頻平臺(tái)的公司,比如另一家是快手系的可靈。
在字節(jié)2月7號(hào)發(fā)布Seedance2.0前,可靈就于1月31號(hào)發(fā)布了可靈3.0,并于2月5日正式上線。可靈3.0同樣可以實(shí)現(xiàn)文本、視頻等多模態(tài)輸入,在一致性、穩(wěn)定性、分鏡等方面均有突破。
但一位業(yè)內(nèi)人士告訴我們,一般視頻生成模型還是遵守客戶協(xié)議的,并沒(méi)有去訓(xùn)練用戶上傳平臺(tái)的數(shù)據(jù),基本都是通過(guò)公開數(shù)據(jù)集在訓(xùn)練。
03
震撼之外
Seedance2.0的出圈效應(yīng),也不可避免地面臨當(dāng)前AI公司商業(yè)化發(fā)展的困局——數(shù)據(jù)隱私與安全。
科技博主Tim在測(cè)試視頻中驚呼Seedance2.0生成效果驚艷的同時(shí),后面提出的問(wèn)題令人擔(dān)憂。他只是上傳一張自己站在公司門口的照片,生成的AI視頻直接調(diào)用了他的聲音,當(dāng)AI運(yùn)鏡里轉(zhuǎn)向公司的對(duì)面時(shí),畫面與現(xiàn)實(shí)幾乎一致。
Tim由此得出結(jié)論,Seedance2.0在未經(jīng)授權(quán)的情況使用了他在云端的數(shù)據(jù)。
實(shí)際上對(duì)公開網(wǎng)絡(luò)資料的使用,在AI行業(yè)內(nèi)已經(jīng)不是秘密。去年9月,《大西洋月刊》歷時(shí)數(shù)月調(diào)查,寫出一篇《人工智能將席卷YouTube創(chuàng)作者》的文章,文章指出,全球超1500萬(wàn)條YouTube視頻被科技公司未經(jīng)授權(quán)下載,成為AI視頻生成模型的“原材料”。
這里的科技公司既包括微軟、Meta、亞馬遜、英偉達(dá)、Runway等國(guó)外巨頭,也含帶國(guó)內(nèi)的大廠。
版權(quán)問(wèn)題在國(guó)外引起過(guò)巨大爭(zhēng)議。2025年以來(lái),迪士尼相繼對(duì)圖片生成工具M(jìn)idjourney,以及MiniMax旗下的影像生成工具海螺,還有谷歌等相繼發(fā)出停止侵權(quán)函,指控他們訓(xùn)練模型時(shí)侵權(quán)。
去年10月,OpenAI的視頻模型產(chǎn)品Sora2產(chǎn)生破圈效應(yīng)后,引發(fā)包括美國(guó)電影協(xié)會(huì)、宮崎駿所在的吉卜力工作室等多家IP出版公司的抗議。
同樣都是使用海量的公開網(wǎng)絡(luò)資料訓(xùn)練,視頻生成模型引發(fā)的爭(zhēng)議遠(yuǎn)大于大語(yǔ)言模型。原因并不只是視頻更具象,還因?yàn)榇笳Z(yǔ)言模型生成的文字更多被看作是提升效率,增強(qiáng)生產(chǎn)力,深度報(bào)道、專欄等仍然高度依賴人力。
而視頻模型涉及攝影、剪輯、特效、表演、場(chǎng)景制作等完整流程,工業(yè)化程度高,隨著視頻生成模型的快速進(jìn)化,以上整個(gè)流程的人力都可能被取代。這或許才是焦慮的來(lái)源。
當(dāng)網(wǎng)絡(luò)用戶可以用AI工具,隨意生成任意IP角色之間的互動(dòng)視頻時(shí),沖擊的就不只是制作成本,而是整個(gè)動(dòng)畫產(chǎn)業(yè)的商業(yè)邏輯,IP授權(quán)、發(fā)行窗口、內(nèi)容控制權(quán)都會(huì)被重新定義。
版權(quán)問(wèn)題尚可以通過(guò)分成方式解決,但當(dāng)AI視頻模型能力越來(lái)越強(qiáng),不斷突破真實(shí)世界的邊界時(shí),深度偽造與信息安全風(fēng)險(xiǎn)以及會(huì)將真實(shí)世界引向什么處境,也同樣充滿未知。
撰寫|吳尋
編輯|柳嘉
「白鯨實(shí)驗(yàn)室」原創(chuàng)文章
轉(zhuǎn)載、交流、合作請(qǐng)?zhí)砑游⑿牛簂iujiaquan2025
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.