![]()
歡迎來到北茗的AI茶館
說實話噢,這兩年發布的視頻模型,勾不起我太大興趣。
要怪就怪,當初Sora給的預期太猛,后續模型都是在兌現預期,包括Sora它自己......
不過這兩天刷屏的即夢「Seedance 2.0」,真的驚艷到我了。
驚艷到,這些博主再怎么吹,都不為過的程度。
《黑神話:悟空》的制作人馮驥也表示深感震撼。
![]()
甚至,官方的使用手冊中,作者赫然寫出“Kill the game!”。
![]()
是的,就是這么囂張。
讓我想到,馬斯克在前幾天的訪談中“酒后吐真言”,說:“如果美國無法實現重大創新突破,那么中國將完全占據主導地位。”
![]()
中國AI又一次反超美國,爭氣!
但真正讓Seedance 2.0出圈的,是颶風影視Tim的恐怖經歷。
他只上傳了自己的照片,然后視頻竟然精準匹配了他的聲音。
![]()
甚至一個運鏡,能補全他們公司的真實場景。
![]()
是的,Seedance 2.0用了不少颶風影視的視頻進行訓練。
然后,很快,上傳人臉素材的功能就被禁了。
叨叨的有點多,不吊胃口了,直接上case。
Case 1
參考圖片1:
參考圖片2-6:
![]()
參考視頻1:
Prompt:
參考第一張圖片里模特的五官長相。模特分別穿著第2-6張參考圖里的服裝湊近鏡頭,做出調皮、冷酷、可愛、驚訝、耍帥的造型,每一個造型穿著不同服裝,每次更換,畫面伴隨會切鏡,參考視頻的里魚眼鏡頭效果、重影閃爍的炫影畫面效果。
生成結果:
Case 2
參考圖片1:
![]()
Prompt:
參考@圖片1的專題片的分鏡頭腳本,參考@圖片1的分鏡、景別、運鏡、畫面和文案,創作一段15s的關于“童年的四季”的治愈系片頭。
生成結果:
Case 3
參考圖片1:
![]()
參考圖片2:
![]()
參考圖片3:
![]()
Prompt:
以@圖片1為首幀,畫面放大至飛機舷窗外,一團團云朵緩緩飄至畫面中,其中一朵為彩色糖豆點綴的云朵,始終在畫面中居中,然后緩緩變形為@圖片2的冰淇淋,鏡頭推遠回到機艙內,坐在窗邊的@圖片3伸手從窗外拿進冰淇淋,吃了一口,嘴巴上沾滿奶油,臉上洋溢出甜蜜的笑容,此時視頻配音為@視頻1。
生成結果:
Case 4
參考視頻1:
Prompt:
顛覆@視頻1的整個劇情0–3秒畫面:西裝男坐在酒吧,神情冷靜,手里輕晃酒杯。 鏡頭緩慢推進,光影高級、氛圍嚴肅。 環境音低沉,西裝男小聲說“這單生意,很大。”3–6秒畫面:身后的女人表情緊張問“有多大?”西裝男抬眼,壓低聲音:“非常大。”鏡頭切手部特寫——他把酒杯放下,氣場拉滿。6–9秒畫面:突然西裝男從桌下掏出—— 一大包體積夸張的零食禮包,“咚”的一聲重重放在桌上。9–12秒畫面:身后的女人原本放在腰間的手,肌肉從僵硬到松弛,整個人表情放松。畫面氛圍輕松起來。13–15秒畫面:西裝男拿出一包零食給女人,鏡頭拉遠展示酒館全景,畫面變得透明模糊—— 字幕彈出“再忙,也要記得吃點零食~”
生成結果:
Case 5
參考圖片1:
![]()
參考圖片2:
![]()
參考圖片3:
![]()
參考圖片4:
![]()
參考圖片5:
![]()
參考圖片6:
![]()
參考視頻1:
Prompt:
@圖片1@圖片2@圖片3@圖片4@圖片5@圖片6的風光場景圖,參考@視頻1中的畫面節奏,轉場間畫面風格及音樂節奏進行卡點。
生成結果:
Case 6
參考圖片1:
![]()
參考圖片2:
![]()
參考視頻1:
Prompt:
@圖片1的女子走到鏡子前,看著鏡子里面的自己,姿勢參考@圖片2,沉思了一會突然開始崩潰大叫,抓鏡子的動作崩潰大叫的情緒和表情完全參考@視頻1。
生成結果:
看完之后,你大概能知道Seedance 2.0強在哪了,我們來總結一下。
? 整體質量提升
畫質、聲音、一致性、真實感、流暢度、穩定性等等,全方位的進步。
? 參考內容更豐富
除了文字Prompt,還支持圖片、視頻和音頻參考,其中圖片竟然能上傳最多9張。在Prompt中@素材名,模型就知道是哪個參考內容。
![]()
支持多種參考方式:全能參考、首尾幀、智能多幀和主體參考。
![]()
? 精準復刻,極致控制
人物、動作、運鏡、特效、風格、聲音、節奏、創意...... 參考內容中的任何方面,都可以讓Seedance直接復刻,效果非常到位。
? 視頻復雜度提升
以前的模型大多只能生成一個鏡頭,而Seedance可以生成多個專業級運鏡的鏡頭,同時保持超高一致性。
基于這些能力,小白秒變導演。只要你有故事、有創意,技術層面不是問題。
價格方面,Seedance 2.0真的挺貴,5s視頻40積分。買積分的話,相當于4塊,充月度會員的話,相當于1塊。
但不少網友和博主的反映, 抽卡成功率非常高, 大概在80%-90%,遠遠高于其他模型。
如果你真的有視頻創作需求,使用Seedance并不一定花費更高。
最后聊聊Seedance 2.0帶來的影響。
對于傳統影視圈,沖擊很大。
視頻制作門檻大幅降低。之前專業人士可以說,AI不懂專業運鏡,不懂鏡頭語言。現在,Seedance都搞得定,實在不行還能直接復刻呢。不遠的將來,觀眾不一定會認為,真人導演的設計一定好于AI。
DeepSeek出腳本、Seedance出視頻,小白都能做出看得過去的視頻,而且絕大多數視頻的目標觀眾也是小白,所以簡單需求已經達到了落地水準。
當然,導演和創作者們可以把更多精力,放在如何講好一個故事,這會變得越來越重要。
此外,傳統影視的拍攝制作成本太高了,對此我深有體會。
前段時間,我參與了一個創業短片的拍攝。
導演、攝影組、燈光組,一共十個人左右。各種鏡頭、攝像機、布景道具、燈光、支架等等,大量設備和道具。每個鏡頭,要選場地,要設計動作臺詞,要布景,要做燈光,要搭軌道,要彩排,要NG,一天從早到晚拍不了幾分鐘的鏡頭。
![]()
說真的,有點震驚到我,專業拍攝的復雜程度,遠超我之前的想象。
拍攝過程中,我腦海中無數次閃過一個問題:這幾分鐘的視頻,得多高的成本......
所以說,在成本方面,AI是降維打擊。
對于AI視頻的一些衍生產品,是場重構和洗牌。
拿視頻Agent來說,這類產品存在的最大意義,是用“專業流程+基礎模型+工程化”來補足視頻模型的不足。
現在,視頻模型的能力范圍擴大了,其他的東西就要減少,或者重構來適配。
甚至一些產品,直接失去了價值。
最大的影響,肯定是安全問題。
老生常談的話題,就不展開聊了。
其實,我現在最希望看到的,不是發布的模型有多強,而是監管、版權、法律、安全這些配套生態的完善。
一開年,各大模型和產品就招呼上了,其中很多已經有落地潛力了,Seedance無疑也是。
2026不是什么Skill之年、Agent之年、Clawdbot之年,我愿給2026一個更宏觀的稱號:AI落地之年。
AI會越來越多地解決“術”和“器”層面的事情。這個過程中,作為普通人的我們,會得到AI的幫助,也有人會被AI取代。
我們應該把更多注意力放在“道”和“法”的層面,這才是未來的真正壁壘,是我們人類該做的事情。

如果你有任何看法,歡迎在評論區一起討論
如果有一點收獲,可以點贊、轉發、推薦文章,關注「AI機器人茶館」
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.