去年5月我發過一條朋友圈:不負責任地盲猜,最晚2026年,會有一部漫威質量的純AI制作電影全球上映。然后,大量媒體開始寫:好萊塢死了。
![]()
這兩天,一個爆火的新模型,讓我感覺這一天越來越近了。
我甚至看到網上有人說:2026,會是傳統電影的“最后一年”。我們正在見證全新電影的誕生。
真有那么夸張嗎?寫篇文章,記錄一下,順便帶你回顧是怎么回事。
![]()
01
改變視頻行業的AI,快來了
這兩天,我朋友圈被一條條震撼視頻刷屏了。
這是字節旗下的即夢內測最新視頻模型Seedance2.0。按理說,新模型發布我們已經不稀奇了,幾個禮拜一個幾個禮拜一個。今早看到吳曉波老師一句話:中國AI人,已經三年沒過好年了。我會心一笑。別說研發者了,我們這種媒體,都已經連續好幾年春節在家寫稿,年年撞上“突然發布的現象級大模型”。
然而,Seedance2.0的效果,還是有億點點超預期。
在X上,已經有一大堆用戶測評,給出極高的評價。
![]()
它只用一兩句提示詞,就能生出電影級大片。它能讓蜜雪冰城和星巴克等好幾個咖啡品牌,在東方明珠下貼身肉搏。把咖啡大戰“具象化”。哎呀,文字實在表達不出感覺,我從Tim(影視颶風)的視頻里截一小段,你一看就明白。
它厲害在哪?具體來說,在至少3個方面有了極大提高。
1、運動時的人物精細度
以前很多AI視頻,定格畫面還行。但只要一動,五官就像在拍《午夜兇鈴》,到處亂飛。
但你看Seedance2.0生成的內容,衣服的光澤很自然、發絲的陰影很自然。如果你暫停看,甚至能發現,連門鎖金屬的反光都很自然。
2、細滑且高級的運鏡
很多視頻人都有個口頭禪:這個視頻有“廉價感”。其實基本差就差在運鏡上。以前的AI視頻,要么是動的固定機位,要么是無邏輯的亂晃。
但你看這個,這是我用年度演講現場照片生成的視頻。
注意它的視角,就像是架在一臺專業搖臂上。而且它不是機械平移,甚至可以環繞和俯沖。我們真實現場攝影師拍的效果,也差不多就是這樣了。
3、充滿敘事邏輯的分鏡
Tim的視頻里也有提到,過往的視頻模型是沒有什么“分鏡思維”的。都是為了切鏡頭而切鏡頭,最多給點特寫,鏡頭間是毫無邏輯的。
但你看這段“星際穿越”的視頻,你能看出,鏡頭的切換明顯是有邏輯的,它能理解“當前的畫面在干什么”,用各種鏡頭語言幫你理解“什么是現在的重點”。它知道什么叫“導演邏輯”。
當然,它也說不上完美無瑕。比如,上面那個蜜雪冰城大戰咖啡人的視頻,你仔細看能看到,前一秒東方明珠是被激光擊中了的。下一秒,它又完好無損的出現在背景里。
但總之,考慮到這是只給了“一句話”就生成的視頻,已經足夠震撼。
![]()
02
為什么能這么厲害?因為“兩只手畫畫”
我趕緊去研究了一下,為什么它能這么厲害?究竟是靠什么技術?我試著用大白話給你說明白。
傳統視頻經常“畸形”,就是因為在視頻生成領域,有兩個目標一直在打架:
目標1:內容一致性,俗稱“長得像”。
AI得盯著你上傳的那張照片,不能把你的眼睛畫大,也不能把你的衣服換了。
目標2:動作自然度,俗稱“動得順”。
AI得讓你的身體動起來,比如揮手、走動,還要保持光影自然。
過往的視頻大模型,只有一條“處理流水線”(專業術語叫“分支”),所以往往會顧此失彼:要么為了讓你動起來,臉就變形了。要么為了保住你的臉,整個人就僵在那像個 PPT。
但這次的Seedance2.0,用了一種“雙分支擴散”技術。它就像給AI配了兩條一起協作的流水線。
流水線1:動作分支。
它負責“構思動作”。根據指令(比如“在街頭漫步”)去計算像素該怎么動,確保物理連貫,手臂不會不自然的彎曲。
流水線2:內容分支。
它負責“盯著照片”。它提取特征。包括面部、發型、膚質。確保像素級一致。臉部不再恐怖變形。
而且,這兩條流水線并不是各跑各的,它們之間有一個“跨注意力機制”,它是兩個分支之間的協調員,不停進行信息交換。這樣,Seedance2.0就可以通過調節這兩個分支的“發言權”,確保動作不走形。比如,設定“長相上100%聽內容分支的,動作上100%聽動作分支的”。
這就解決了前面那個難題:以前動起來就臉崩,現在因為外觀分支擁有“絕對話語權”,所以臉被死死“鎖”住了。
就像兩只手作畫,右手畫皮,左手畫骨。動作分支問:我現在要讓這個身體轉個身,該怎么畫?內容分支答:給,這是他轉身后側臉該有的輪廓,別畫錯了。
驚艷的效果,就在這樣實現的。
![]()
03
用本人授權,解決安全隱患
昨天看到了一大堆討論和測試視頻,又聽說這個“真人人臉”的功能好像一度被下架。我好奇極了,按住發癢的雙手想試試,結果,果然沒成功。
![]()
仔細一看,原來Seedance2.0下方標注了一行小字:暫不支持真人人臉。
![]()
我很奇怪,用自己的臉拍電影,這才有趣啊?為什么不支持。一搜之下,馬上明白了人們的擔憂。
這個模型的效果真的太好了,好到你甚至很難通過“尋找破綻”來安慰自己。以往那種僵硬的表情、漂移的五官消失了,取而代之的是極致的真實。這在技術上叫“突破”,但也會讓人擔憂。
你會不自覺地打個冷顫:“如果屏幕那頭,一個長得和我一模一樣、聲音分毫不差的人,正對著我年邁的父母談笑風生,他們該如何分辨?”
字節的伙伴告訴我,在內測階段,就有很多人在討論,會不會被壞人利用?《黑神話:悟空》之父馮驥也評價說,這是當前地表最強視頻生成模型,沒有之一。但同時也在擔憂,會不會造成假視頻泛濫?
幸好,這是個技術問題,不是路線問題。通過技術調整,很好找到解決方案:活體檢測。
字節的伙伴告訴我,你試試手機APP版,做一下本人的授權驗證,就沒問題了。
我試了試,果然,它讓我打開攝像頭,先讀一段數字,再把臉向左轉、向右轉。通過驗證后,上傳視頻,給指令,做一段我開著敞篷跑車在海邊吹風,就能看到這樣的結果。
怎么樣?是不是有點意思。
很多年后,回頭來看,也許我們會發現,很多行業的邏輯,都會被改變。
比如,電影行業。原本的生產方式,可能被徹底重構。
現在的影視劇,如果演員后期臺詞改了,或者某個鏡頭要補拍,場地、演員、燈光,隨便一弄就是六位數七位數的成本。在一些特殊情況下,像《速度與激情》的保羅·沃克,在拍攝過程中去世,就會留下永久的遺憾。
但現在,只要獲得本人或者親屬的授權,就可以AI補拍。甚至,真的還需要明星真人出鏡嗎?都不一定了。這就是為什么有人說:2026,是“傳統電影”的最后一年。
比如,心理咨詢行業。我們有可能獲得一個“24小時的理想傾聽者”。
現在的心理咨詢,非常昂貴且受限于時間。然而,在得到你本人(或者你信任的人)授權后,AI可以生成一個你最信任、最能給你安全感,還完美掌握前沿心理學知識的“數字分身”。
它長著一張你最親近的臉,用最溫柔的語氣和你對話。許多抑郁癥患者、孤獨老人、焦慮人群,都會因此受益。
但這一切都有個前提:只要是真人,就要確保必須得到本人或者親人的授權。一定要有這樣的機制。
好在,字節的伙伴,已經充分意識到了這一點。
有了這道安全感,我們再來看那些被重構的未來,才會覺得是驚喜,而不是驚嚇。
![]()
最后的話
十年以后,面對大屏幕,當我們以現在無法想象的全新形式看著電影,也許會回憶起2026年春節前,這個遙遠的下午。
網上有一句非常扎心的話:
我們總是以為,技術的進步,會減少普通人和高手間的差距。然而殘酷的現實是,每次,它都會拉大差距。
因為技術只是一根“杠桿”。它把普通人的努力放大了10倍,卻把高手的洞察放大了1000倍。這難免讓人感到“冒犯”。所以,每一項偉大的發明誕生時,人類的第一反應往往不是歡呼,而是恐懼。
電燈發明時,總被擔心“光對眼睛有害”。微波爐發明時,總被擔心有“死亡射線”。照相機發明時,甚至有人擔心它會“吸走靈魂”。
然而,就像照相機沒有殺死繪畫,它只是殺死了“作為復印機的畫家”,然后催生了梵高、高更、莫奈。
當導演的門檻降到零,剩下的,也就只剩大導演們對世界獨一無二的理解。
斯皮爾伯格如果不是猶太裔,沒有經歷過猶太家庭從小的耳濡目染和深入骨髓的民族傷痕,就拍不出《辛德勒的名單》
卡梅隆如果不是對深海有著近乎偏執的狂熱,沒有在無數次深潛中,直面過那種足以毀滅一切的孤獨與靜謐,就拍不出《泰坦尼克號》。
王家衛如果不是從上海移居香港,沒有在那代人特有的漂泊感中長大,沒有在燈紅酒綠的疏離中體會過那種“欲言又止”的孤獨,就拍不出《花樣年華》。
這些東西,AI永遠學不會,因為它沒有經歷過你所經歷的寒冬,也沒有見過你所見過的盛放。
2026年,也許真的是傳統電影行業的最后一年。但那又怎樣?技術殺死的只是膠片,而人那顆不可模擬的靈魂,才是永不落幕的電影。
觀點/ 劉潤主筆/ 歌平編輯/ 歌平版面/ 黃 靜
這是劉潤公眾號第2860篇原創文章。未經授權,禁止任何機構或個人抓取本文內容,用于訓練AI大模型等用途
![]()
![]()

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.