2024年初,OpenAI發布Sora時,影視行業經歷了一場集體性的恐慌,市場普遍預測,好萊塢的攝影棚將被算力中心取代,攝像機搞不好要成為歷史文物。
一年過去了,這種恐慌被現實的尷尬稀釋,創作者們發現,硬盤里塞滿了驚艷的幾秒鐘片段,卻拼湊不出一個連貫的三分鐘故事。
核心矛盾在于,商業視頻創作需要的是連貫內容,而當前的AI生成具有高度的隨機性。你在第一個鏡頭里生成了一個穿白衣的女孩,在第二個鏡頭里,她可能變成穿紅衣,甚至換了一張臉。
場景的光影、道具的細節,在不同的生成批次中難以對齊。
這種“抽盲盒”式的體驗,導致AI視頻技術長期停留在“演示DEMO”階段,難以真正進入影視工業的生產流程。
對于商業公司而言,無法穩定交付的技術,只是玩具,不是工具。
行業內曾流傳一種觀點,AIGC真正的分水嶺不在于是否使用AI,而在于能否將AI融入核心創作流程。如果AI不能理解創作者真實的工作方式,不能融入實際的生產流程,它就永遠停留在“好看但不好用”的階段。
1月29日,AIGC軟件A股上市公司萬興科技(300624.SZ)推出全鏈路漫劇創作平臺萬興劇廠,并千萬級投資頭部漫劇制作廠商杭州靈漫快創,形成“技術賦能內容創作,真實場景反哺技術迭代”的深度協同。
2月5日,萬興科技再宣布斥資,以數千萬元對生數科技Vidu進行戰略投資,同時雙方正式達成戰略合作,將進行“大模型+工具+場景”的生態級共創,打造AI漫劇工業化生產新范式。
![]()
萬興科技戰略投資總經理吳佳兵(左)、生數科技首席執行官駱怡航(右)出席戰略投資合作簽約儀式
萬興科技密集投資標桿企業,是產業鏈上下游正在合力攻克AI視頻生成的“可控性”難題的標志,并將場景聚焦于具有廣闊前景的AI漫劇賽道。AI視頻行業正在調整升級發展路線,從追求單點生成的驚艷效果,轉向解決連續敘事的一致性難題,試圖將不可控的隨機生成,轉化為具體場景中可控的、完整的內容。
解決一致性難題
對于漫劇和短劇的創作者而言,目前最大的成本是篩選廢片。
萬興科技戰略投資總經理吳佳兵在投資簽約現場分享了一組數據,在缺乏有效控制手段的情況下,創作者的“抽卡率”(生成成功率)僅為40%。
這意味著,為了得到一個可用的鏡頭,創作者需要進行多次無效嘗試,這直接推高了算力成本和時間成本。
在商業視頻制作中,一致性是底線。
角色的一致性、場景的一致性、動作邏輯的一致性,構成了敘事的基礎。一旦角色在鏡頭切換中發生形變,觀眾的沉浸感就會瞬間被打斷。
萬興科技選擇投資生數科技,核心考量之一就在于其旗下產品Vidu對“生成視頻一致性”的聚焦攻堅。生數科技CEO駱怡航透露,最新的Vidu Q3參考生視頻(Reference-to-Video)模型,在多主體參考、音畫同步、細節生成等一致性的關鍵技術衡量指標中獲得突破性進展。
這被視為解決商業視頻痛點的關鍵。
在過去的創作邏輯中,AI模型主要依賴“提示詞”(Prompt)來猜測畫面,這種方式本質上是在進行概率博弈。
比如,創作者希望角色打出一套“降龍十八掌”,在舊的模式下,創作者需要花費大量精力去描述動作的軌跡、力度和幅度。
即便如此,生成的畫面往往是變形或不符合物理規律的,為了解決這個問題,創作者通常會截取電視劇中喬峰打降龍十八掌的關鍵幀圖片作為參考,但圖片只能提供靜態的姿勢,無法傳遞動態的韻律。
現在的邏輯發生了變化。
通過Vidu“參考生視頻”技術,創作者可以直接上傳一段五到八秒的視頻片段,這段視頻可以是截取的影視素材,也可以是真人實拍的演示。Vidu模型能夠識別視頻中的動作邏輯和情緒特征,并將其“遷移”到生成的動漫角色身上。
生數科技行業解決方案負責人李震在演示中展示了一個具體的案例,一段真人在面館里掩面哭泣的視頻作為參考。
視頻中的人物情緒悲傷,手部動作細膩。系統將這一視頻作為輸入條件后,生成的金發女郎角色完美復刻了這一悲傷的情緒和肢體動作,甚至連掩面時的節奏都保持了一致。
這種技術路徑不僅解決了動作的一致性,還解決了場景特效復刻的難題。
在漫劇創作中,打斗特效是一個高頻需求。
演示中展示了一個天花板漏水的場景視頻,通過參考生視頻技術,創作者將這一物理現象復刻到了自己的漫劇場景中。
同樣,如果參考視頻的地面是白色地毯,創作者可以通過指令將其修改為網格狀地面,而不需要重新生成整個場景。
除了動作和場景,角色形象的穩定性是另一個核心指標。
Vidu Q3支持“音畫同出”與口型匹配。
在傳統的AI視頻制作流程中,視頻生成和配音是割裂的兩個環節。創作者生成視頻后,需要使用專門的口型軟件去匹配音頻,這往往導致口型僵硬或不同步。
Vidu Q3模型能夠實現視頻生成與音頻生成的同步,支持中文、英文、日文等多種語言,角色說話時的面部肌肉運動與語音內容實現了同步。
在Vidu Q3模型演示片段中,兩個角色進行對話,甚至出現了三人對話中“搶話”的場景,角色的口型和表情依然保持了自然。
這種對現實世界還原能力的提升,直接降低了商業創作的門檻。
商業價值建立在確定性之上,通過技術手段約束AI的隨機性,確保角色、場景、動作在連續鏡頭中的統一,是AI視頻從“玩具”邁向“工具”的必要前提。
集成者的工作流
在AI視頻的產業鏈條中,分工正在變得明確,大模型廠商負責提升底層能力的上限,應用廠商負責降低使用門檻和整合工作流。
生數科技專注于提升模型的參數規模、生成速度和物理模擬能力,而萬興科技的角色是集成和賦能者。
單純的模型調用無法滿足復雜的劇集制作需求,一個完整的漫劇項目,包含劇本拆解、分鏡設計、角色設定、視頻生成、后期剪輯等多個環節,如果創作者需要在ChatGPT里寫劇本,在Midjourney里生圖,在Runway里生視頻,再到剪輯軟件里合成,這種割裂的操作體驗本身就是效率的殺手。
萬興科技推出的“萬興劇廠”平臺,正好解決這個低效的問題。
這是一個集成了多種頂尖模型的平臺。
萬興劇廠不僅接入了生數科技的Vidu模型,還率先接入了快手的Kling 3.0(可靈)、字節的即夢5.0等目前業界最領先的視覺模型。
這種“多模驅動”的策略,源于萬興科技對不同模型特性的判斷。以Agent實現智能劇本資產提取、智能分鏡創作;通過專業導演深度參與和頂尖算法,針對不同題材不同風格的漫劇場景,為用戶智能匹配模型;通過提示詞工程,降低抽卡率,進一步實現降本增效。
吳佳兵指出,萬興科技不直接研發底層通用大模型,而是通過“自研+投資+合作”的方式,把市場上最好的引擎裝進自己的車里。
不同的模型有不同的特長。
Vidu Q3在音畫同步和角色一致性上表現突出;快手的Kling 3.0在長視頻生成和物理模擬上具有優勢;谷歌的模型則在語義理解上更為精準。萬興科技的任務,是將這些模型的API接口封裝進一個統一的界面,讓用戶無需在不同的網頁之間跳轉。
為了解決資產復用的問題,萬興科技在萬興劇廠引入了“知識庫”的概念。
在傳統的創作中,每一次生成都是獨立的。但在連續劇中,主要角色、主要場景、特定的運鏡方式(如推拉搖移)、特定的特效(如大招光效)是需要反復調用的。
“知識庫”允許創作者將這些元素封裝成可復用的“資產”。
比如,一個特定的“中心構圖”提示詞,或者一個“鏡頭跟隨”的運鏡方式,都可以被保存為資產。當創作者需要使用時,只需像在社交媒體上@某人一樣,直接調用這些資產。這就像是玩樂高積木,積木塊是固定的,創作者只需要負責拼搭。
萬興科技戰略投資總經理吳佳兵在簽約現場披露了實測數據,相比傳統的AI創作方式,萬興劇廠整合后的工作流使單集漫劇創作周期提速8倍。
更直觀的影響體現在成本上,由于“抽卡成功率”從40%提升到了80%以上,廢片率大幅降低,推進算力成本降低了55%,綜合計算,整劇的人力成本下降了72%,項目總成本降低了60%以上。
![]()
一站式精品漫劇創作平臺萬興劇廠專為2D漫劇、AI真人劇、3D漫劇等打造
對于那些靠制作短劇為生的短漫劇制作公司、AIGC影視工作室來說,萬興科技通過模型及工具賦能,給予了它們生存能力的質變,技術的價值需要通過產品來釋放,通過將不同特長的模型封裝進標準化的工作流,將傳統需要數月完成的漫劇制作周期壓縮5-7天,萬興科技解決了創作者在不同工具間頻繁切換的割裂感,逐步建立起工業化的創作標準。
漫劇市場的產能升級
產能的提升,直接指向了漫劇(AI Comic Video)市場的爆發。
行業數據顯示,漫劇市場規模預計在2025年達到168億元,2026年將突破243億元,與此同時,漫劇內容的播放量在2025年已經超過了7000億次。
這個市場正在經歷結構性的變化。
2025年,市場上充斥著大量粗制濫造的“沙雕漫”,這類內容制作簡單,往往只有簡單的畫面移動和配音,依靠獵奇的劇情吸引流量。
進入2026年,隨著用戶審美疲勞,精品化漫劇成為主流,央視推出了兩大精品漫劇項目,各大視頻平臺也開始調整算法權重,扶持高質量內容。
2026年1月,全網熱播榜TOP100的漫劇里,精品漫劇占據了頭部位置。
一個典型的案例是,靈漫快創在春節檔推出的三部作品均躋身多平臺日榜前列。其中,《我在驚悚游戲開診所》登頂日榜 Top15,《吞噬進化:從螞蟻吃到神明》躋身日榜 Top22 ,而《氣運三角洲,我憑操作吊打全球》一上線即爆,播放量29小時內狂飆至2億次,同步上榜多平臺漫劇日榜Top1。靈漫反饋,該劇由靈漫一支3人專項團隊利用萬興劇廠僅用時5天完成。這在傳統影視制作中是不可想象的。
![]()
萬興劇廠賦能靈漫快創多部漫劇春節檔霸榜,氣運三角洲29小時破2億
精品化意味著更高的制作門檻,對于大量持有IP的網文平臺和制作公司而言,他們手里有百萬字的文字劇本,但缺乏將其轉化為視頻的產能。
傳統的影視制作周期長、資金重,無法消化海量的網文IP,萬興科技與生數科技的合作,旨在提供一套能夠規模化生產精品內容的解決方案。
這套解決方案的核心,是將“導演思維”引入AI創作。
通過Vidu Q3的鏡頭控制能力,創作者可以實現推、拉、搖、移等專業的運鏡效果,而不是生成一張只會眨眼的動態圖片。
李震在演示中展示了一個“千軍萬馬”的過場鏡頭。
在AI生成的畫面中,馬蹄聲由遠及近,聲音由小變大,畫面清晰度保持在1080P。這種宏大場面的生成,過去需要昂貴的特效團隊,現在通過模型直出即可完成。
這種產能的釋放,不僅改變了供給端,也可能改變消費端。
駱怡航認為,隨著生產力的提升,作品的豐富度和質量將大幅提高,以前看網文的用戶,現在可以看到視頻化的展示。未來,隨著模型的發展,可能會衍生出互動劇等更多的消費方式。
區域市場上看,在國內,隨著00后消費群體的崛起,對于虛擬內容的消費習慣也正在養成。海外市場對短劇內容等虛擬內容的消費需求同樣旺盛,且具有較強的內容付費意愿。Steam平臺上50%的用戶來自中國,泡泡瑪特的全球熱銷,都證明了這一趨勢。
作為業務覆蓋200多個國家和地區的出海企業,萬興科技在深圳、長沙設立雙總部,并將這種工業化的生產能力輸出到全球市場。在海外,旗下以Wondershare Filmora為代表的產品已接入了谷歌的Nano Banana Pro等先進模型,服務全球創作者。
在合規層面,AI內容創作上的IP版權、肖像權等復雜法律風險尤受行業關注。萬興科技建立了自己的AI倫理審查委員會,并接入了先進的鑒敏工具。這種合規能力,是其構建全球創作者生態的隱形護城河。
駱怡航在簽約儀式上預測,AI視頻技術距離天花板還有3到5年的發展期。
目前的Q3版本雖然在部分指標上對標甚至超越了Sora,但仍有進化的空間。長時長的生成、進一步的高清穩定性,都是未來技術突破的方向。
在這個過程中,誰能率先建立起穩定、高效、低門檻的生產體系,誰就能在內容產業的變革中占據主動。
萬興科技董事長吳太兵表示,萬興不希望成為替代創作者的角色,而是通過降低門檻,把表達空間真正打開。
免責聲明:本文觀點僅代表作者本人,供參考、交流,不構成任何建議。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.