![]()
作者 | 蒸蒸
郵箱 | zz@pingwest.com
2026 年一開年,AI 視頻創作者們就經歷了一次小型動蕩。
1 月 10 日起,OpenAI 先是收緊了 Sora 2 的使用門檻,免費用戶不再能生成視頻,近幾日,社交平臺上又出現大量用戶反饋,API 服務也發生不穩定和崩潰的現象,讓依賴單一平臺的創作者們猝不及防。對于國內用戶而言,尋找一個更可控、響應更穩定的“Plan B”,已不再是備選項,而是必選項。
在這一背景下,國內的視頻生成模型承接下了這一波確定性的流量。
1 月 29 日,生數科技發布了 Vidu 主體社區,把復雜的視聽語言“打包”成可一鍵調用的資產。運鏡、構圖、敘事、風格、場景、表演、招式、氛圍——八大類 200 多個預設主體,用戶只需敲一個@符號,選擇想要的效果,剩下的就能交給 AI。打開 Vidu.cn 或 Vidu API:platform.vidu.cn 即可體驗。
這一功能的推出,實際上是在進一步解決用戶創作門檻的難題。
過去兩年,模型能力的進化有目共睹,分辨率提升、時長增加、畫面穩定性增強,抽卡的難度也在不斷降低,但那些不太懂鏡頭建立、景別切換、相機運動的大多數們,仍然做不好一個 AI 短片。
生數科技 Vidu 的回應,是換一種解法:與其讓用戶苦練專業鏡頭知識,不如直接把“電影感”打包給你。
這套邏輯能不能跑通?一個@符號真的能讓普通人拍出大片感嗎?我們做了一輪實測。
1
@一下,召喚你的好萊塢團隊
主體社區的邏輯,是把一個好萊塢劇組的能力拆解成可組合的模塊。氛圍、運鏡、招式特效、構圖、場景、表演與表情、風格、景別與視角——只需要一個@,就能調用疊加成一套完整的視聽語言。我們用三個場景來看看這套“拼裝邏輯”實際跑起來是什么效果。
場景 1:好萊塢動作大片
從使用限制來看,目前 Vidu 支持主體社區的多元素自由組合,最多 2 個視頻主體和 4 個主體圖,最長能生成 8 秒視頻。
我們先從動作戲開始:選擇影片中的兩位主角,@雙人對打,和@緊張壓抑氛圍。
![]()
簡單 prompt 組合一下,就得到了這樣一段輸出視頻。
從效果來看,模型補全了背景場所,在一片廢墟上,兩個人激烈的打斗起來,畫面和動作都頗為流暢,通過運鏡的切換和表情的細節,把緊張的氛圍體現了出來。
場景 2:瘋狂動物城×恐怖片——當迪士尼動畫變成驚悚片
第二個測試,我們想玩點刺激的:把可愛風動畫和恐怖片嫁接在一起。創建瘋狂動物城中的角色,場景設定在暗黑森林里。
![]()
這次的@組合則完全不同:表演疊上@狂喜扭曲臉,運鏡@鏡頭推進制造壓迫感,景別@特寫,放大角色的詭異表情。
當@狂喜扭曲臉生效的瞬間,原本圓眼睛、軟耳朵的萌系動畫角色,在保持原圖風格的前提下,精準地完成了表情表演,確實把“可愛殼子里爬出恐怖內核”的違和感拿捏住了。
場景 3:AI 古風漫劇——虐戀
第三個場景對標了當下最火的賽道——AI 漫劇,我們設計了一個經典的虐心名場面,亭邊男女主角告別。
![]()
這個場景對情緒的要求很高,我們簡單地給出了一串提示詞,@悲傷氛圍打底,@特寫捕捉表情,運鏡@鏡頭拉遠,模擬那種“漸行漸遠”的告別感。
生成效果相當不錯。視頻從兩人的面部特寫開始,隨后鏡頭緩緩拉遠,逐漸展開涼亭與周圍園林的全貌——這種“從親密到疏離”的運鏡節奏,和告別場景的情緒是吻合的,整個運鏡幅度雖大,但鏡頭保證了絲滑。
有一點值得說明:因為我上傳的主體圖片——包括人物和場景——本身就是比較扁平的二維插畫風格,所以最終生成的視頻也保持了這種二維動漫的質感。這不是 bug,而是主體社區“所見即所得”的邏輯:你喂給它什么風格,它就延續什么風格。如果想要更立體的 3D 渲染感,需要在源頭上傳更具立體感的圖片。
三個場景測下來,主體社區的核心邏輯得到了驗證:它確實把“拍片”這件事拆解成了可組合的積木。選對幾個@,疊在一起,就能快速搭出一個有模有樣的視聽場景。
當然,工具給的是框架和可能性,最終效果還是取決于“導演”自己的判斷:上傳什么樣的主體圖片、選擇哪些@組合,仍然需要用戶自己做判斷取舍。
這一套組合拳,不會讓不懂拍片的人突然變成大導演,但會讓有想法的人更簡單地把想法落地。
1
從“提示詞工程”到“視聽資產庫”,把交互門檻打下來
實測只是切片。退后一步看,主體社區的交互邏輯更值得關注——它試圖改變用戶與 AI 視頻工具之間的協作方式。
過去一年,AI 視頻工具肉眼可見地變強了,用戶體驗在快速提升。但圖像和視頻生成中被討論得最多的,仍然是提示詞分享。
小紅書上有人靠整理提示詞合集漲粉十萬,Discord 社區里的“咒語交換”比產品討論更活躍。這個現象本身就說明了一件事:用戶要的不是更強的工具,而是更低門檻的使用方式。提示詞的流行,恰恰是因為它能幫普通人繞過學習成本,直接復用別人的成功經驗。
但這終究是一種“偏方”,真正的解法方向,是把這些散落在社群里的“民間智慧”系統化、產品化,變成工具本身 SOP 的一部分。
Vidu 的主體庫 1.0 其實已經邁出了第一步——角色、物體、場景和道具的調用,讓用戶可以把主體“鎖定”下來反復使用。這在當時已經是易用性上的突破,但覆蓋范圍還比較有限,更多是在解決“一致性”問題——讓同一個角色在不同鏡頭中保持穩定。
這一次主體社區的更新,是一次擴展,把主體從角色一致性,延伸到了整個視聽語言體系,包括氛圍、運鏡、招式特效、構圖、場景、表演與表情、風格、景別與視角的八大類,有 200 多個預設主體。Vidu 不只是要“記住角色”,還要記住整個好萊塢的拍攝手法。一個@符號調用的不是一個元素,而是一整套專業知識的封裝。
這種變化對內容行業的影響是實質性的。
對短劇團隊來說,過去需要導演逐鏡頭描述運鏡意圖、反復調試提示詞才能獲得想要的畫面,現在@一個氛圍主體,或者表情表演主體,就能讓視頻變得有情緒。
例如這個參考圖和@焦慮不安氛圍的簡單組合。
![]()
直接就能生成一個表演細膩的人物情景劇。
對動漫創作者來說,@角色+@招式、特效等主體組合,也能讓個人作者也能快速搭出像模像樣的畫面。這個案例中,輸入參考圖,簡單地 Prompt:@圖 1 使用@百花繚亂分身,分身與圖中角色外貌相同。
![]()
小白也能輕松搞定這樣一個成熟的視頻情節:
對于廣告行業,@產品特寫、@浪漫依戀氛圍這類主體的快速調用,讓腳本到畫面的轉化變得更快,至少在內部提案階段,已經可以用生成素材替代純文字描述,拉低成本和時間門檻,快速生成多個備選方案,滿足甲方修改需求。
更進一步的是,這種主體的調用是可分享、可交易、可互動的。未來,專業用戶可以把獨門運鏡風格做成主體出售,普通用戶付費調用即可,讓創意資產快速流動,促進創意資產的生產與消費。此外,主體資產也可以共享,提升主體資產的可復用性。而這種共享、交易也天然形成了一種新型的互動模式,不同主體間的調用、組合,讓更多靈感迸發。
當然,有一個前提必須成立:功能交互的創新,必須和底層模型能力的提升同步。這一點上,Vidu Q2 參考生 Pro 的同步升級補上了這一環。
ViduQ2 參考生 Pro 模型新增的視頻編輯、視頻參考功能,讓工具鏈從“生成”延伸到了“生成+編輯”全流程,讓可控從前期一致性延伸到后期的可控編輯,創作者對于生成的視頻有了更多掌控權;圖像視頻的質量和生成速度也有所提升;上個月上新的 Agent 一鍵成片也再次更新,支持用戶上傳 BGM 和刪除旁白,可以靈活選擇是一鍵成片,或是配合自己喜歡的 BGM 和角色對白,滿足廣告電商行業的產品營銷需求。
當基礎模型能力的提升和功能交互方式同時發生時,AI 視頻創作的想象空間就會被進一步打開:更強的模型意味著主體庫可以封裝更復雜的視聽語言,更豐富的主體社區又反過來降低模型能力的使用門檻,形成正向循環。
如果說底層的模型技術決定了 AI 視頻生成的“上限”,那么像主體社區這樣的交互創新,則決定了這項技術的“下限”——即有多少普通人能真正用它來表達自我。
Vidu 主體社區的出現,意味著 AI 視頻正在從“極客玩具”走向“樂高積木”:你不需要知道塑料是如何合成的,你只需要拿起積木,搭出你心中的城堡。
點個“愛心”,再走 吧
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.