文|陸莫斯
編輯|王二
如果還有“春晚最喜愛(ài)的節(jié)目評(píng)選”,2026年春晚你投哪個(gè)?
“春晚最夯”
“MVP”
“每一幀都是絕美”
這是2026春晚《賀花神》節(jié)目的網(wǎng)友評(píng)論。
當(dāng)白居易舟行水上,吟出“猶在水中央”;

當(dāng)繪畫(huà)大家徐渭潑墨成花;

當(dāng)王昭君凝眉轉(zhuǎn)身回望中原,一撥琵琶;

我的中國(guó)文化DNA動(dòng)了。
直到節(jié)目結(jié)束,主持人念出“火山引擎用豆包大模型圖像和視頻生成能力打造十二花神視效”,很多觀眾才意識(shí)到,AI的能力已經(jīng)走到了這一步。
這也是有史以來(lái)AI含量和科技含量最大的一屆央視春晚。
這首先是一場(chǎng)給十幾億人的AI視覺(jué)奇觀。
不止有美輪美奐《賀花神》,在歌舞節(jié)目《夢(mèng)底》中,當(dāng)演員劉浩存在舞臺(tái)上伸展舞姿,五個(gè)逼真的數(shù)字分身,也在舞臺(tái)背景上演繹著一番悲歡離合。鏡頭移動(dòng)、現(xiàn)場(chǎng)燈光變化時(shí),分身的視角和光影也會(huì)實(shí)時(shí)同步。

吸引了很多人目光的,還有蔡明的機(jī)器人小品:機(jī)器人能在后空翻之余,還能懟人逗悶子——“如果真孫子和機(jī)器人孫子掉河里,奶奶先救誰(shuí)?”“機(jī)器人:我倆一起掉河里,你就被電死了。”——在豆包剛在“科技春晚”懟過(guò)羅永浩之后,這只是在更多人面前的小露一手。

當(dāng)主持人數(shù)次拿起手機(jī),對(duì)屏幕前的觀眾喊話:讓大家打開(kāi)豆包App,生成一句馬年的祝福、讓豆包根據(jù)自己的形象生成拜年頭像……
這些時(shí)刻都頗具意味。
站在2026年的起點(diǎn),談?wù)揂GI的終極想象已經(jīng)陷入流俗——大部分的人類想象,都沒(méi)有超出過(guò)《Her》或者《鋼鐵俠》里全知全能的AI助手。
相較之下,距離我們更近的現(xiàn)實(shí),正在劇烈地發(fā)生變化。
在除夕當(dāng)天,豆包AI互動(dòng)總數(shù)達(dá)19億,“豆包過(guò)年”活動(dòng),就已經(jīng)幫助用戶生成超過(guò)5000萬(wàn)張新春主題頭像、生成超過(guò)1億條新春祝福。除夕當(dāng)天,火山引擎豆包大模型的峰值TPM(每分鐘token數(shù))正是在春晚主持人宣布用豆包進(jìn)行第二輪互動(dòng)之的這一分鐘內(nèi),豆包大模型推理吞吐量達(dá)到633億tokens。
AI界的“技術(shù)奇觀”仍在繼續(xù)。從去年的Google的Nano Banana,到近期的“小龍蝦”Clawdbot、字節(jié)視頻生成模型Seedance 2.0,都在共同趨向一條主線:每一次技術(shù)爆發(fā)后,傳遞到C端用戶中的速度在迅速加快。
擁有資金實(shí)力的大廠們用紅包、春晚、AI點(diǎn)奶茶等大戰(zhàn),加速了這些“奇觀”的爆發(fā)。這讓2026年的春節(jié)大戰(zhàn),已經(jīng)足以被記錄為一個(gè)歷史性時(shí)刻。
這個(gè)時(shí)刻有兩個(gè)維度:一個(gè)是技術(shù)邊界的突破——AI第一次在國(guó)民舞臺(tái)上,完成了此前不可能的創(chuàng)作;另一個(gè)時(shí)刻在于使用門(mén)檻的迅速降低——觀眾們第一次發(fā)現(xiàn),AI不再是遙遠(yuǎn)的技術(shù)競(jìng)賽,而是在自己身邊,能“幫得上忙”的助手。
AI視效怎么才能滿足頂級(jí)甲方?
這個(gè)“幫得上忙”的時(shí)刻,先發(fā)生在了春晚導(dǎo)演組的準(zhǔn)備過(guò)程中。
2026年春晚前夕,看到水墨奔馬從靜態(tài)畫(huà)卷中躍然而出,從頭到尾保持一致,依然威風(fēng)凜凜時(shí),火山引擎工程師小林終于放下心來(lái)。
在導(dǎo)演組確認(rèn)效果達(dá)標(biāo)前,沒(méi)有人能預(yù)料到效果如此之好——包括春晚導(dǎo)演組和火山引擎自己。

△來(lái)源:歌曲《馭風(fēng)歌》,背景動(dòng)畫(huà)用Seedance 2.0生成
一個(gè)多月前,春晚導(dǎo)演組把一份節(jié)目需求遞給了火山引擎團(tuán)隊(duì),要求看似簡(jiǎn)單:一張徐悲鴻風(fēng)格的水墨畫(huà),畫(huà)上幾匹風(fēng)格各異的馬,能讓馬跑起來(lái)就行,哪怕原地踏步也可以。
大模型的邊界在哪里,能不能實(shí)現(xiàn)?至少,在接到春晚導(dǎo)演組的節(jié)目要求時(shí),火山引擎工程師小林并沒(méi)有答案。“非常忐忑。”他對(duì)36氪回憶道。
當(dāng)時(shí),字節(jié)正忙于訓(xùn)練新一代的旗艦生成模型Seedance 2.0,進(jìn)度只有約30%左右。
AI視頻生成模型特別適合春晚這種節(jié)奏快、變化多、不斷需要迭代的項(xiàng)目。在火山引擎團(tuán)隊(duì)接手之前,春晚導(dǎo)演組已經(jīng)嘗試了市面上幾乎所有主流的視頻生成模型,但最后發(fā)現(xiàn),在水墨畫(huà)這個(gè)場(chǎng)景上,都不如人意。
水墨風(fēng)格的影像語(yǔ)料本來(lái)就極度稀缺,大多數(shù)國(guó)外模型根本不理解什么是水墨畫(huà),又因?yàn)樗?huà)以寫(xiě)意為主,而非寫(xiě)實(shí)。在沒(méi)有分鏡腳本、動(dòng)態(tài)參考時(shí),很難有人說(shuō)清“水墨畫(huà)動(dòng)起來(lái)應(yīng)該是什么樣子”。
但嘗試之后,團(tuán)隊(duì)發(fā)現(xiàn),導(dǎo)演組想要實(shí)現(xiàn)的效果——風(fēng)格遷移、參考生成、細(xì)粒度動(dòng)態(tài)控制——恰好與他們正在訓(xùn)練的Seedance 2.0的技術(shù)方向非常契合。
春晚導(dǎo)演組就這樣成了Seedance 2.0的全球第一位頂級(jí)用戶。
頂級(jí)甲方的好處在于,甲方們的藝術(shù)素養(yǎng)是一流的。
一開(kāi)始,駿馬身上用寫(xiě)意手法畫(huà)的紋路和毛發(fā),奔跑時(shí)身上的紋路該怎么動(dòng)?火山引擎的理科生團(tuán)隊(duì)想象不出來(lái),只能請(qǐng)導(dǎo)演組的老師手繪出腦海中下一幀的版本,再反復(fù)用AI跑視頻,去逼近那個(gè)“對(duì)”的感覺(jué)。

△來(lái)源:歌曲《馭風(fēng)歌》
即便模型能生成馬的動(dòng)態(tài)視頻,又會(huì)遇上更棘手的一致性問(wèn)題:畫(huà)上有六匹馬,每匹顏色、長(zhǎng)相、氣質(zhì)都不同。哪怕能夠生成馬奔跑起來(lái)的視頻。同時(shí),六匹馬的樣子很難保持平衡,甚至數(shù)量也會(huì)在下一幀發(fā)生變化。
在這些基礎(chǔ)上,還要確保畫(huà)面也足夠精致逼真。否則,在春晚舞臺(tái)背后的真HDR和8k超高清屏幕上,面對(duì)著十幾億觀眾,最細(xì)小的瑕疵和失誤都難以被容忍。
火山引擎的解決辦法是:遵循“先可用后滿意”的迭代邏輯,先生成關(guān)鍵幀,再基于關(guān)鍵幀生成動(dòng)態(tài)視頻,而非直接用文字描述生成。
“我們沒(méi)有為春晚單獨(dú)微調(diào)模型,”字節(jié)相關(guān)團(tuán)隊(duì)表示。團(tuán)隊(duì)對(duì)模型在每個(gè)訓(xùn)練階段的能力邊界有著清晰認(rèn)知——知道它能做什么、不能做什么。隨著訓(xùn)練進(jìn)度推進(jìn),他們不斷在能力邊界內(nèi),把模型能力用到極限。
在春晚項(xiàng)目的推進(jìn)過(guò)程中,來(lái)自導(dǎo)演組的反饋也反哺了模型訓(xùn)練環(huán)節(jié)。“最高峰的時(shí)候,我們每周可以迭代數(shù)十到超過(guò)一百個(gè)視頻版本,這是傳統(tǒng)影視團(tuán)隊(duì)不可能達(dá)到的頻率。”他表示。
但僅僅過(guò)了一個(gè)月,火山引擎團(tuán)隊(duì)就拿出了驚人的結(jié)果:將一張靜態(tài)水墨畫(huà),變成了一段分鐘級(jí)、包含分散、聚合、特寫(xiě)、交互等復(fù)雜分鏡的動(dòng)態(tài)影像。每一匹馬不僅跑了起來(lái),都保持著自己的性格和特質(zhì),六匹馬會(huì)在畫(huà)面中分散、聚合、互動(dòng),最后回到一張完整的畫(huà)面里。
如今的Seedance 2.0模型最高僅能支持到720P 24 FPS的直出內(nèi)容,與春晚的畫(huà)質(zhì)要求有差距。為此,火山引擎團(tuán)隊(duì)甚至還建立了一套畫(huà)質(zhì)精修體系——這套體系會(huì)先分析畫(huà)面里的人、運(yùn)動(dòng)、細(xì)節(jié)紋理等等要素,用多種算法組合,把畫(huà)質(zhì)規(guī)格提升到春晚可播出的標(biāo)準(zhǔn)。
另一個(gè)有意思的現(xiàn)象是,一開(kāi)始,在導(dǎo)演組還不清楚模型能力時(shí),需要模型團(tuán)隊(duì)不斷先提出方案,推到創(chuàng)作者面前。
但當(dāng)模型可用性提升到80%-90%以上,創(chuàng)作主導(dǎo)權(quán)發(fā)生了逆轉(zhuǎn)——導(dǎo)演組開(kāi)始隨心所欲地提出創(chuàng)意要求,模型能夠穩(wěn)定響應(yīng)各種精細(xì)化的藝術(shù)控制指令,分鏡的設(shè)計(jì)權(quán)又回到了導(dǎo)演手中。
中國(guó)AI的“黑神話時(shí)刻”是怎么發(fā)生的?
不論是在《賀花神》中起舞、吟詩(shī)的十二個(gè)花神、《馭風(fēng)歌》節(jié)目里奔騰的駿馬,還是豆包App的春節(jié)AI互動(dòng),都離不開(kāi)一個(gè)關(guān)鍵詞:字節(jié)視頻生成模型Seedance 2.0。
Seedance 2.0在臨近春節(jié)前上線,引起的全球轟動(dòng)仍在持續(xù),甚至被游戲科學(xué)創(chuàng)始人馮驥稱為“中國(guó)AI圈的黑神話時(shí)刻”。
為什么它能夠有如此大的影響力?
這是因?yàn)椋曨l生成模型第一次完成了從生成一段畫(huà)面,到完成一個(gè)完整作品的跨越。
以往的視頻生成模型,更多是生成批量零碎畫(huà)面的工具。創(chuàng)作者本質(zhì)上是在“抽卡”——先要畫(huà)好分鏡表,根據(jù)每個(gè)分鏡的要求(近景、中景、遠(yuǎn)景,畫(huà)面內(nèi)容等)。生成的10個(gè)視頻中,可能只有1-2個(gè)能用,大量的時(shí)間還要耗費(fèi)后期制作上,比如讓生成的視頻里人物、背景保持一致。
在不少用例中,我們都能夠看到,僅是簡(jiǎn)單的一段話,描寫(xiě)出故事情節(jié)、畫(huà)面風(fēng)格,Seedance 2.0就直接能夠生成一段15-30秒、帶鏡頭調(diào)度、保持角色一致、音畫(huà)同步的視頻,可用率高達(dá)八成以上。
重點(diǎn)在于,Seedance生成的視頻,鏡頭間的切換是帶有“導(dǎo)演思想”的,這根本性地改變了創(chuàng)作體驗(yàn),真正做到了讓創(chuàng)作者指揮AI拍電影,模型完成相當(dāng)大部分的“思考”工作。
要讓模型懂得真正理解世界,這需要模型全方位的能力都達(dá)到基準(zhǔn)線。
字節(jié)相關(guān)團(tuán)隊(duì)用了一個(gè)比喻:基礎(chǔ)大模型的訓(xùn)練,木桶效應(yīng)非常顯著——就像是,面對(duì)一個(gè)60分的考生,很難挖掘亮點(diǎn);但當(dāng)考生到了90分,所有閃光點(diǎn)才會(huì)被看見(jiàn)。Seedance 2.0 的突破,不是某個(gè)單一能力的躍升,而是過(guò)去影響可用性的短板被系統(tǒng)性地解決后,用戶體驗(yàn)發(fā)生了質(zhì)變。
相比上一代模型,Seedance2.0進(jìn)步的一個(gè)重要原因是訓(xùn)練標(biāo)準(zhǔn)。在2.0的訓(xùn)練過(guò)程中,Seedance團(tuán)隊(duì)建立了一套新的Benchmark(評(píng)測(cè)體系):第一層保證畫(huà)面中的實(shí)體正確、運(yùn)動(dòng)不崩壞;第二層才追求更高的視覺(jué)表現(xiàn)力和遵循能力。
換句話說(shuō),在模型的能力演進(jìn)曲線完全沒(méi)有收斂時(shí),多模態(tài)模型的進(jìn)步,很大程度上還需要依賴基礎(chǔ)模型能力的提升。
在明白這個(gè)道理前,字節(jié)也交過(guò)一些學(xué)費(fèi)。
36氪了解到,從2023年開(kāi)始做AI時(shí),字節(jié)并沒(méi)有更多追求在更大的參數(shù)上訓(xùn)練模型,而是先訓(xùn)練一個(gè)參數(shù)較小的基礎(chǔ)模型,推出C端應(yīng)用,根據(jù)用戶反饋來(lái)快速迭代產(chǎn)品,當(dāng)時(shí),基礎(chǔ)模型的規(guī)模更多是“夠用就好”。
所以,盡管豆包依靠字節(jié)的抖音,語(yǔ)音、圖像等多模態(tài)功能做得非常好,但一開(kāi)始總被用戶嫌棄“有點(diǎn)傻”,限制了豆包的能力泛化到更多專業(yè)場(chǎng)景。
2025年的DeepSeek時(shí)刻之后,國(guó)內(nèi)大廠都結(jié)結(jié)實(shí)實(shí)在RL(強(qiáng)化學(xué)習(xí))上卷了一整年。字節(jié)不僅加大了基礎(chǔ)模型的投入,并且讓模型團(tuán)隊(duì)和AI應(yīng)用一定程度解耦——模型團(tuán)隊(duì)追求模型的智能上限,產(chǎn)品團(tuán)隊(duì)則繼續(xù)圍繞豆包App為主的產(chǎn)品進(jìn)行高速迭代,從用戶的使用場(chǎng)景中提取需求,反哺給模型團(tuán)隊(duì)。
Seedance 2.0的上一個(gè)版本1.5 pro,就驗(yàn)證了這種路線的可行性。當(dāng)時(shí),模型其實(shí)已經(jīng)可以做到聲畫(huà)同步,比如生成一個(gè)室內(nèi)的畫(huà)面,聲音會(huì)對(duì)應(yīng)地變得更集中;戶外的畫(huà)面則匹配一個(gè)更悠遠(yuǎn)、空曠的聲音。
所以,當(dāng)基礎(chǔ)模型Seed 2.0的能力有大幅提升——Seedance 2.0也變得更聰明了。相較前代版本,2.0擁有了自己的“導(dǎo)演意圖”,生成的視頻分鏡是符合故事敘述邏輯的,這滿足了更多專業(yè)創(chuàng)作者的需求。
更大規(guī)模的爆發(fā)來(lái)自工程上的降本。保持角色一致、到達(dá)更高可用度,讓Seedance 2.0在應(yīng)用側(cè)邁了一大步,如果抽卡頻率能降至25%(即2次),成本可降至1.4元/秒,降幅高達(dá)68%。
這讓大眾用戶更容易能創(chuàng)作出有品味的AI視頻。于是,抖音、B站、小紅書(shū)等平臺(tái)迅速出現(xiàn)了大量地整活類二創(chuàng),進(jìn)一步促進(jìn)了全球范圍內(nèi)的破圈。
怎么喊十幾億人來(lái)玩AI
2015年的春晚,當(dāng)央視春晚主持人說(shuō)出“拿起手機(jī)搖一搖”時(shí),中國(guó)的移動(dòng)互聯(lián)網(wǎng)歷史被改寫(xiě)了。那一夜,微信用戶搖了110億次手機(jī),2億人在搶紅包的過(guò)程中綁定了銀行卡。
馬云后來(lái)把這次突襲稱為“珍珠港事件”——他用了8年時(shí)間積累的支付寶用戶,被微信用一個(gè)晚上追平了。
不過(guò),微信紅包的成功有一個(gè)前提:移動(dòng)支付技術(shù)在2015年時(shí)已經(jīng)成熟,用戶需要的只是一個(gè)“為什么要用”的理由。
但如今的AI,可能比大家想象的階段還要更早。
除夕夜,十幾億人在同時(shí)用AI生成紅包封面和祝福語(yǔ)時(shí),看似簡(jiǎn)單的操作背后,就是一場(chǎng)艱巨的基建保障戰(zhàn)爭(zhēng)。
AI的基建還遠(yuǎn)未到成熟之時(shí)。一位火山引擎人士對(duì)36氪算了一筆賬:傳統(tǒng)的搶紅包基本只用CPU算力,一次請(qǐng)求的算力消耗在十萬(wàn)分之一Tops以內(nèi)。通過(guò)大模型生成祝福語(yǔ)和祝福圖片,單次請(qǐng)求需要累計(jì)消耗約10 Tops算力——對(duì)于單個(gè)請(qǐng)求而言,算力消耗差有百萬(wàn)倍之多。
那么,字節(jié)為什么要在春晚場(chǎng)景中,用百萬(wàn)倍的算力猛推多模態(tài)紅包、祝福語(yǔ);阿里千問(wèn)為什么要狂撒補(bǔ)貼,讓AI幫人類點(diǎn)奶茶?
1998年的《商業(yè)周刊》采訪中,蘋(píng)果創(chuàng)始人喬布斯曾說(shuō):“人們不知道他們想要什么,直到你把它擺在他們面前。”
在ChatGPT橫空出世之后的頭三年,無(wú)數(shù)AI應(yīng)用創(chuàng)業(yè)者都在做類似的事情:去猜測(cè)用戶的需求,造了錘子找釘子。
但誰(shuí)真正找到了答案?Agent時(shí)代來(lái)臨后,Anthropic憑借押注Coding路線,用Claude Code一舉反攻企業(yè)側(cè)市場(chǎng),幾乎有反超OpenAI的勢(shì)頭;DeepSeek則極致的工程降本和展示思考鏈的產(chǎn)品設(shè)計(jì),向全球展示了“AI會(huì)思考”的神奇時(shí)刻,給中國(guó)的大廠打了個(gè)樣。
不同在于,美國(guó)會(huì)花更大力氣,專注在大模型本身,比如繼續(xù)堆巨量算力以迭代模型;但在中國(guó),絕大多數(shù)互聯(lián)網(wǎng)巨頭都是憑借消費(fèi)者應(yīng)用崛起,競(jìng)爭(zhēng)更為激烈。
在國(guó)內(nèi),技術(shù)突破和搶占C端場(chǎng)景的用戶心智,只能是雙線并行。
除了技術(shù)處于發(fā)展早期之外,技術(shù)的迭代速度,也比當(dāng)年的支付大戰(zhàn)時(shí)更快——大廠們現(xiàn)在面對(duì)的問(wèn)題可以說(shuō)更加艱巨,無(wú)論是市場(chǎng)教育成本還是基建。
但好處在于,如果C端應(yīng)用保持快速增長(zhǎng)的態(tài)勢(shì),和底層的基礎(chǔ)設(shè)施會(huì)一起成長(zhǎng)。
比如,高速快速成長(zhǎng)的火山引擎已經(jīng)成為字節(jié)的AI能力底座和出口,正在變得越來(lái)也健壯。截至2025年12月,豆包大模型日均token使用量就突破50萬(wàn)億,較去年同期增長(zhǎng)超過(guò)10倍,火山2025年的收入也已經(jīng)快速增長(zhǎng),突破200億元。
C端應(yīng)用場(chǎng)景和B端服務(wù)互補(bǔ)式地增長(zhǎng),已經(jīng)成為一種常態(tài)。比如,在市場(chǎng)心智還沒(méi)還固定前,不少人也會(huì)因?yàn)樽止?jié)在豆包App、即夢(mèng)和其他AI應(yīng)用的良好體驗(yàn),選擇采購(gòu)火山的AI云服務(wù);相應(yīng)地,火山也被倒逼著,在一種極限狀態(tài)下快速迭代基礎(chǔ)設(shè)施。
無(wú)論是豆包讓十幾億人第一次體驗(yàn)多模態(tài)能力,還是阿里千問(wèn)AI請(qǐng)奶茶,本質(zhì)上理念相同:在自家模型擁有SOTA能力時(shí),迅速讓更多的C端用戶,在合適的時(shí)機(jī),用上AI能力。
這是一場(chǎng)資金、技術(shù)、應(yīng)用場(chǎng)景缺一不可的綜合戰(zhàn)役。
換言之,模型領(lǐng)先只是這場(chǎng)戰(zhàn)役的前提。未來(lái),決定一家企業(yè)成敗的關(guān)鍵,是技術(shù)范式發(fā)生改變之時(shí),誰(shuí)能將斷代領(lǐng)先的模型能力,迅速轉(zhuǎn)化為用戶可以感知到的產(chǎn)品功能——讓不用AI的人第一次體驗(yàn)多模態(tài)、辦事能力,這已經(jīng)決定下一個(gè)時(shí)代生態(tài)位、建立護(hù)城河的關(guān)鍵問(wèn)題。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.