![]()
「來自中國的 Seedance 2.0 將成為最先進的技術。」
「這就是人工智能,我們完蛋了。」
![]()
![]()
![]()
![]()
![]()
▲在 X 上,多名 AI 視頻創作者表示,Seedance 2.0 的表現相當出色
最近這幾天,無論是抖音微信視頻號,還是國外的 X 社交媒體等,Seedance 2.0 生成的 AI 視頻都像病毒一樣在傳播。
除了一反常態的,是海外網友在找 +86 號碼,注冊即夢;還有大量的網友發帖子找攻略,在那些 AI 視頻的評論區,都在求體驗教程。更有甚者,說是倒賣即夢積分兩天賺了 8000 多美元。
![]()
![]()
![]()
![]()
▲大量海外網友發 X 求一枚體驗碼,想盡辦法能上即夢
Seedance 2.0 究竟能做把 AI 視頻做成什么樣?
輕松復刻人生切割術第一集里,從電梯出來到走廊的復雜運鏡;還有自制一部超級大片,武打動作拳拳到肉;各種廣告的 TVC 宣傳片,液態玻璃效果都能拿捏;甚至還能說相聲、演小品,春晚導演這回自己做主……
![]()
▲由字節自研視頻生成模型 Seedance 2.0 生成,來源:X@qhgy / 抖音@虛妄
從簡單的視頻一致性,到復雜的高難度運鏡,還有強大的創意模板功能、更準確和真實的音色、配合視頻內容的音樂卡點,Seedance 2.0 這次幾乎是把 AI 視頻可能會遇到的問題,統統解決了。
APPSO 也在即夢里測試了一波最新的 Seedance 2.0 模型,只能說網友的反應都是真情實感,要好的提示詞要抽卡也是存在的,但每一次生成的 AI 視頻都太真實了。
![]()
▲ 即夢 AI 官網地址:https://jimeng.jianying.com/ai-tool/generate
目前,在即夢官網,登錄之后選擇視頻生成,就能使用字節自研視頻生成模型 Seedance 2.0。
這一次,我們真的在指揮 AI 拍電影
選擇 Seedance 2.0 模型,使用全能參考模式之后,光是看能輸入的文件,就知道這次的升級不簡單。
字節視頻生成模型 Seedance 2.0 徹底打破了大多數模型存在的輸入限制,以前的文本+首幀,或者是首尾幀都顯得過時了。現在的 Seedance 2.0 把創作邏輯從頭打造了一遍,支持圖像、視頻、音頻、文本四種模態的自由組合。
一張圖,可以是用來定下畫面的美術風格,也可以作為視頻的關鍵幀;一段視頻,能直接復刻角色的動作和各種復雜的運鏡;幾秒音頻,直接帶起節奏和氛圍;最后再加上一句提示詞,串聯起我們的所有想象。
![]()
▲字節自研視頻生成模型 Seedance 2.0 支持上傳的文件上限是 12 個,圖片最高 9 張,視頻和音頻文件都是最多 3 個,且總視頻/音頻長度不能超過 15s;生成時長可以選擇 4-15s,不同時長消耗積分不同。
使用的方式也很簡單,Seedance 2.0 目前支持「首尾幀」和「全能參考」入口,智能多幀和主體參考模式暫不支持。一般來說,我們只需要選擇「全能參考」和模型「Seedance 2.0」,之后上傳完所有的素材,官網提示盡可能把對最終生成視頻影響較大的素材放在前面。
![]()
▲ 也可以直接點擊輸入框下方的 @ 按鈕來選擇使用不同的素材文件
接著,在提示詞輸入框里,通過 @ 直接調用對應的素材,串聯成合理的提示詞,然后等它「造夢」。我們不再需要絞盡腦汁去想「怎么描述這個動作/氛圍/運鏡/配樂/……」,只需要 @ 一下把它指給模型看。
如果說多模態輸入解決了「怎么說」的問題,那模型內部的參考能力就是解決了「說什么」的問題。有了強大的深度視頻參考能力,我們也生成了一些其他模型做不到的 AI 視頻。
一打十,十八般武藝直接復制
以前想讓 AI 模仿某個電影片段的名場面,我們得在提示詞里面寫「環繞鏡頭」、「快速切換」、這類專業術語,涉及到具體的武打動作,更是要化身武術指導,每一個動作怎么進行都要在提示詞里面寫清楚,結果還不一定對。
現在直接上傳參考內容,AI 不僅能理解畫面的整體風格,捕捉到角色細節;還能識別鏡頭語言、動作節奏、甚至創意特效,然后精準復刻。

▲將@視頻1中的雙人換成@圖片1的兩個機器人,場景維持@圖片1,參考@視頻1的運鏡和轉場效果,利用鏡頭匹配兩人的武打動作,極致的舞臺美感,增強視覺沖擊力
這里我們使用了 Seedance 2.0 使用手冊內一段 10s 的打斗,然后告訴模型將視頻中的兩個人物動作,復制成我們上傳的兩個機器人。
最后生成的效果,完美復刻了視頻動作,宇樹和波士頓動力也能來一場酣暢淋漓的 PK,這不比前段時間微博之夜那表演的機器人強。
![]()
![]()
▲上傳的視頻和圖片,以及使用的提示詞
這些最終呈現的 AI 動作,完全修復了以前的模型,走路像飄,打架像軟面條的問題。現在的 Seedance 2.0,就是一個懂物理,懂重力,懂慣性的模型,動作銜接更順滑自然,也不再有那種詭異的「AI 感」。
拍攝現場最難的鏡頭,現在只要上傳參考
除了能還原角色細節和動作,單純的復刻運鏡,Seedance 2.0 更是完全不在話下。以前那些難搞的電影級運鏡、創意特效,現在同樣是只需要上傳參考視頻,模型就能精準「照著拍」。

▲參考@視頻1的運鏡,用@圖片1復刻這段視頻
我們上傳了一段蘋果 F1 狂飆賽車的片段,和一張小米 SU7 Ultra 的圖片。Seedance 2.0 能直接明白我的意圖,把這張圖片轉成一個像 F1 開場的空拍鏡頭,再到聚焦 SU7 Ultra 的跟隨鏡頭,一鏡到底全過程,說這是大片一點都不過分吧。
這種鏡頭連貫性極強的一鏡到底能力,還特別適合用來做這種舞蹈大片。我們從使用手冊里找了一段 15s 的舞蹈視頻,然后上傳一張美美的自拍照。只是一次生成,完全沒抽卡,就得到了這樣一段音樂卡點、運鏡自然的獨舞視頻。

▲將@視頻1中的女生換成身穿蒙古族服飾的@圖片1,場景在一個精美的舞臺上,參考@視頻1的運鏡和轉場效果,利用鏡頭匹配人物的動作,極致的舞臺美感,增強視覺沖擊力。
去年 Google Veo 3 視頻模型火起來的時候,第一人稱視角穿越講述歷史是當時的熱門玩法,現在的 Seedance 2.0,熱門玩法多到數不過來。這種結合游戲視角、畫面還有角色一致性的視頻,像是直接把黑神話悟空搬到了現實。

▲人物的背面參考@圖片1,正面參考@圖片2,面部細節參考@圖片3。人物進入到游戲《黑神話:悟空》中,單挑二郎神楊戩,場景、動作、特效以及音樂音效可以參考@視頻1。
更有意思的是,這里我們還使用了音頻參考,我們可以上傳一段視頻,Seedance 2.0 會根據視頻音樂的節奏和情緒來控制畫面生成,打擊的重音對應鏡頭切換,弦樂的漸強對應著動作的加速。
這也是聲音第一次進入視頻生成模型的參考,它從一個單獨的后期背景音樂,變成了 AI 視頻敘事的重要部分。
能參考,一段過年回家大戲也是說來就來
參考能力最大的價值在于解決實際創作問題,而參考能力的顯著增強,歸功于模型基礎能力的提升。
我們嘗試用一張首幀圖片,和平時在其他視頻生成模型里面會用到的提示詞,丟給 Seedance 2.0,結果同樣不出所料。

▲鏡頭跟拍年輕人 @ 圖片 1 的背影。環境是除夕深夜的村道,路燈昏暗,只有風聲和行李箱輪子在雪地里艱難拖動的「咕嚕」聲。他走得很累,停下來搓了搓凍僵的手,哈出一口白氣(特寫),眼神里透著「終于到了」的疲憊和一絲近鄉情怯。
他轉過一個彎,鏡頭隨之旋轉。遠處出現了一扇貼著紅對聯的大鐵門,門縫里透出金黃色的光。此時,遠處零星的鞭炮聲開始響起。他加快了腳步,推開沉重的鐵門。
推開門的瞬間,鏡頭越過他的肩膀進入院子。滿院子都是紅燈籠。 一只土狗興奮地撲上來,緊接著,廚房的門簾被掀開,母親端著熱氣騰騰的蒸籠出來,蒸汽瞬間模糊了鏡頭邊緣。 父親正在掛燈籠,回頭看到他,愣了一下;站在梯子上,假裝淡定: 「哎?怎么才到?不是說五點嗎?」 母親放下蒸籠,沖過來拍打他身上的雪: 「你個老頭子廢話真多!——冷不冷?快進屋,剛出鍋的肘子!」
鏡頭不再跟隨背影,而是繞到正面,捕捉他的表情。他原本凍得僵硬的臉,被院子里的熱氣和燈光照亮,眼淚在眼眶里打轉,但他卻笑了。
除了視頻一開始放下行李箱和手提包被直接忽視了,整個過程一鏡到底的拍攝,還有角色表情動作的控制。我們只是上傳了一張人像視頻截圖,然后告訴 Seedance 2.0 使用它的背影,它就能直接生成一個有模有樣的過年回家短片。
即使丟掉大段的提示詞,Seedance 2.0 的創意性和劇情補全能力也得到了進一步的提升。我們直接上傳了一張愛樂之城的風格化圖片,然后輸入提示詞,「根據@圖片1創作一個歌舞片的歡快視頻」。

Seedance 2.0 給我感覺是自己主動上強度,這個舞蹈視頻的復雜程度,跟我看冬奧會雙人組花樣滑冰差不多了,而我的提示詞里,沒有參考視頻,也沒有具體動作指引,只是憑借模型自身的創意生成能力,就可以輸出一個精彩的歌舞視頻。
也有網友發揮自己的腦洞,使用了一些英雄聯盟 雙城之戰第二季的角色,生成了一個 38s 的小短片。
![]()
▲由字節自研視頻生成模型 Seedance 2.0 生成,來源:X@NACHOS2D_
AI 視頻的《黑神話》時刻
字節視頻生成模型 Seedance 2.0 驚艷的刷屏的程度,讓我恍惚以為回到了 Sora 面世的那個春節。只不過這次,站在舞臺中央的視頻模型,來自中國。
黑神話制作人馮驥在體驗后,在半夜直接表示「AIGC 視頻生成的童年時代,正式結束了」,看完前面的實測你會發現,這還真是一個相當客觀的評價。
![]()
某種程度上,Seedance 2.0 也可以說是 AI 視頻的《黑神話》時刻。《黑神話:悟空》證明了中國能做出 3A 游戲,現在 Seedance 2.0 同樣在 AI 視頻賽道得到了全球的認可。
如果說去年的 Sora 2 是 AI 視頻領域的「登月時刻」,那么今天的 Seedance 2.0 就是直接把飛船開到了你家門口,并把鑰匙塞進了你手里,讓你輕易得到「地表最強」的現貨。
Seedance 2.0 沒有創造神話,它只是完成了一次扎實的進化。它將視頻生成的門檻拉低,同時將控制的上限拉高。在這個節點上,我們無需過度憧憬遙遠的未來,而是應該以此為基點,思考如何利用這些日益成熟的工具,去講述更好的故事。
即夢 Seedance 2.0 的「全能」與「低門檻」,才是這它最有價值的地方。
這或許才是對「Kill the game」最好的注解——它沒有結束比賽,而是開啟了更大的新游戲。當技術不再是瓶頸,真正的較量將回歸到最本質的地方:那些能講出好故事、擁有獨特審美的人,將獲得前所未有的杠桿。
![]()
▲麥肯錫一份探討 AI 對電影電視影響的報告,提到 AI 內容可能在五年內重新分配 600 億美元的內容生態市場|鏈接:https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/what-ai-could-mean-for-film-and-tv-production-and-the-industrys-future#/
小型工作室和獨立創作者能制作高質量內容的機會越來越大,AI 內容 600 億美元的產業價值將被重新分配。專業和業余的邊界正在慢慢模糊,我們開始問自己「該做什么」,而不再問 AI 「能做什么」。
Seedance 這一波的強勢,已經讓我們看到了比 Sora 2 更強的音視頻效果,無論是從真實世界的物理規律、還是角色的細膩情緒和復雜動作,Seedance 2.0 都可以稱得上是目前的最優模型。
但當 AI 視頻真實到這個程度,Sora 面對的那些問題,Seedance 似乎也變得無法回避。現實是,Seedance 2.0 內測火爆,不少海外創作者都在喊「一碼難求」,但也因為生成效果過于逼真,已經引發了不少關于「AI 視頻造假」的倫理討論。
今年 AI 的進化已經讓人無所適從,Seedance 2.0 的火爆,肯定也遠遠超出了即夢的預料,即夢也很快面對這些爭議做出了回應。
在 9 號刷屏全網當天,即夢運營在創作者社群內發布了正式通知,宣布暫時限制真人人臉素材的使用和視頻生成。目前一些傳播的真人案例,也都是在內測第一時間生成的。
![]()
▲即夢 AI APP 內出鏡功能,在創建 AI 分身之后能創作真人視頻
不過,真人想要出鏡,在即夢 AI 的 APP 內,使用出鏡功能,完成真人校驗后,我們就能體驗真人 AI 視頻生成。
越強大的工具,越需要清晰的使用邊界。但此刻,或許在還沒有找到完美答案之前,我們能做的,就是先想清楚自己想用這個工具做什么,記錄生活、表達創意,還是講述故事?
![]()
如果說楊德昌在《一一》里面說著,「電影發明了以后,我們的生命延長了三倍」,那現在 AI 電影的發明,則更像是開始在重構生命。我們不再滿足于延長,每個人都可能成為自己故事的編劇,在無限敘事中探索另一種人生。
Seedance 2.0 開始讓這一切變得越來越近,而現在還只是 2026 年的開端。
*文章部分視頻播放,可前往微信圖文鏈接預覽
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.