![]()
超過 20 家機構投資。
文丨陳佳惠
編輯丨程曼祺
我們獨家獲悉,愛詩科技近期完成了 3 億美元 C 輪融資,由鼎暉投資領投,超過 20 家機構參與,包括中國儒意、三七互娛等文娛行業(yè)產業(yè)方,亦莊國投、蘇創(chuàng)投等地方國資,和 UOB Venture Management、 Lion X 基金等海外機構。
這是目前為止中國視頻生成領域最大的單筆融資。
我們了解到,愛詩 2025 年底年度經常性收入(ARR)超過 4000 萬美元。據他們去年 10 月的公開信息,旗下手機端 App 產品 PixVerse(海外版)和拍我 AI 的總用戶數當時已超 1 億,月活超 1600 萬。
據公開報道和數據,中國背景的 AI 創(chuàng)業(yè)公司中,ARR 超過 5000 萬美元的公司僅有數家,如 Manus、Lovart、Genspark、Heygen 等。
大部分視頻生成公司或產品,如 Runway、快手可靈、生數科技、MiniMax 海螺等都主要服務相對專業(yè)的內容創(chuàng)作者,在 Web 端提供服務。
愛詩也有這塊業(yè)務,但從 2024 年下半年,他們開始主做 C 端產品,在當年第四季度上線了移動端視頻生成和分享 app PixVerse。字節(jié)旗下的即夢在同年 3 月開始內測,初期以圖片生成為主;后來引起更大關注的 Sora app 則是在第二年(2025 年)10 月上線。
在模型技術探索上,愛詩的最新進展是在今年 1 月發(fā)布 PixVerse R1,它可以實時生成、且能讓畫面無限延續(xù),這是自回歸方法帶來的特性之一。“實時 + 無限畫面” 也是視頻生成領域久被討論的趨勢,它可能會解鎖交互式內容和生成式游戲等新體驗。
![]()
PixVerse R1 上用戶分享的原創(chuàng)互動世界
探索這一方向的公司還有 Sand.ai 和 Vivix AI。Sand.ai 由光年之外聯合創(chuàng)始人曹越創(chuàng)立,曾在 2025 年 3 月開源了使用自回歸技術的視頻生成模型 MAGI-1;Vivix AI 由商湯前執(zhí)行研究總監(jiān)劉宇創(chuàng)立,專注 “實時交互多模態(tài)內容”。
Seedance2.0 爆火出圈后,壓力傳導給了其他視頻生成公司。愛詩聯合創(chuàng)始人謝旭璋告訴我們,他們也有焦慮,但從用戶數據來看,Seedance2.0 對愛詩的影響并不明顯:“因為視頻生成的市場足夠大,大家還沒到需要正面競爭的階段。”
以下是此輪融資前后,我們和謝旭璋的訪談,涉及近期的資本市場變化、Seedance 2.0 等行業(yè)進展和新競爭,以及愛詩自己的 “世界模型” 探索。
融資 3 億美元后,繼續(xù)自研模型、全球化、to C
晚點:單輪 3 億美元創(chuàng)下視頻生成金額記錄。為什么在 25 年年底,投資市場對這個方向、對愛詩表現出這種熱情?
謝旭璋:因為從注意力和收入看,視頻生成都是 AI 各具體方向里增長很快的。同行也融了不少錢。(注:美國視頻生成公司 Runway 于 2026 年 2 月完成 3.15 億美元融資。)
晚點:為什么這一輪有這么多機構?是因為參與方很多,但有魄力出大錢的機構又比較少嗎?
謝旭璋:去年底啟動融資的時候本想融 1 億美金,但國內外投資人想參與的比較多,就決定多融一些,儲備充足彈藥。
晚點:準備怎么花這 3 億美元?
謝旭璋:繼續(xù)投入研發(fā),探索新業(yè)務,拓展全球市場。我們希望做出最好的視頻模型,也把 R1 系列做得更好。
晚點:你們模型訓練一次的成本是多少?3 億美元里,會有多少用在模型研發(fā)上?
謝旭璋:研發(fā)同參數量甚至效果更好的模型,我們平均每月用的訓練資源不到千卡,成本大概只有同行的 10%,今年希望能加大幾倍的投入。
晚點:為什么可以比同行低?
謝旭璋:綜合優(yōu)勢——模型架構、算法、工程、產品能力。外界解讀時會希望能找到一些簡單結論,但其實沒有單一歸因。
之前一些比我們融了更多錢的大模型公司不缺人,不缺數據,但其中多數公司依然做不出視頻生成模型,說明訓視頻生成模型本身有難度。
晚點:但 OpenAI 這樣的頂尖 AI Lab 還是可以做出來,而廣義上來說,你們也是對手。
謝旭璋:確實 2024 年年初 Sora 剛發(fā)布后,大家都在說 “創(chuàng)業(yè)公司完蛋了”、“大廠一統天下”,“創(chuàng)業(yè)公司應該做應用別搞大模型了”...... 雖然外界有很多討論,但我們內部比較堅定,要把模型能力掌握在自己手中。
Sora 出來也有一個好處。我們是 23 年就成立的,在那之前,連做視頻模型創(chuàng)業(yè)在中國都是非共識,大家更關注大語言模型公司的進展。所以我們已經把自研視頻生成從非共識堅持到它變成共識了,那何不再堅持一下呢?
晚點:這股勁兒什么時候得到釋放的?
謝旭璋:24 年下半年,我們發(fā)了 PixVerse V3。當時有一個超級英雄變身的效果,在全球病毒式傳播。那時我們覺得模型和應用都做對了。
晚點:當時怎么想到或試出 “模板” 這個應用形態(tài)的?
謝旭璋:我們當時想做 ToC,決定要用 “模板” 這個應用形態(tài)也是為了服務普通人。這和我們最早做這家公司的初心是符合的,只能說那時候的技術能力 ready 了。
晚點:字節(jié)是不是更能把這個事做好了?
謝旭璋:那時他們還沒反應過來,給了我們機會。
晚點:如果字節(jié)現在投入更多來做視頻生成的 C 端應用呢?它有流量、有產品、有模型。
謝旭璋:我們不是在做同樣的事。字節(jié)流量最大的視頻產品是抖音和 Tiktok,它們最主要還是做短視頻消費,而我們的重點是讓沒做過視頻的普通用戶能用 AI 創(chuàng)作視頻。新的創(chuàng)作者能在我們這里獲得用原生 AI 創(chuàng)作和分發(fā)的體驗。
晚點:你們在視頻生成領域進行了這么多探索,你覺得哪個場景是真正能夠支撐百億收入的?
謝旭璋:其實這件事已經發(fā)生了。在美國,一個月視頻生成 API 的調用量就超過了 1 億美金,一年其實就有 100 億人民幣的 API 調用量。
晚點:你們現在還有什么在堅持的非共識嗎?
謝旭璋:在 Seedance2.0 發(fā)布后繼續(xù)投入模型自研,繼續(xù)做全球化 ToC,繼續(xù)服務普通人,這些依然是非共識。另一個就是繼續(xù)投入以視頻為載體的世界模型 R1。
Seedance 2.0 出現是好事,行業(yè)沒到正面競爭階段
晚點:Seedance2.0 爆火出圈,你們感到焦慮和有壓力嗎?
謝旭璋:我們是有焦慮。但從 2023 年成立到現在,三年里,同樣的事我們經歷了太多次——Sora、可靈、Veo 等等,“改變世界” 的發(fā)布太多了,“顛覆” 太多了。
從數據看,我們沒受什么影響。其實 Sora 2 發(fā)布時,對我們也沒有很大影響。C 端視頻生成的市場比大家想象得要大得多,還遠遠沒到直接競爭的階段。
晚點:Sora App 已經發(fā)了快半年了。現在來看你覺得 Sora App 是一個真正的 C 端平臺機會嗎?
謝旭璋:至少從結果來看,Sora App 的留存顯著不如 PixVerse。
晚點:根據 SensorTower 的第三方估測,Sora App 的 30 日留存是 8%,你們的留存是多少?
謝旭璋:在 Similarweb 上能看到我們的 Bounce rate 比 Sora 低。Bounce rate 數值低,代表用戶愿意在你的網頁上去嘗試。從第三方平臺的數據來看,我們的 App 和網頁留存都是行業(yè)內最高的。(注:Bounce rate 是在選定時間段內,僅瀏覽網站單一頁面后離開的訪客占比。簡單說它代表用戶打開 App 后,沒有進行有意義的互動就立刻關掉會話的比例。)
![]()
晚點:有了 Seedance 2.0,字節(jié)的即夢有可能成為一個 “更成功版的 Sora App” 嗎?
謝旭璋:據我們了解,過去半年到一年,即夢主要的用戶群體還是專業(yè)用戶。Seedance2.0 之后它會不會還是這樣,可能也要一兩個月之后才能知道。Sora app 剛出來的時候,很多人都覺得它是 Super App ,但這在一個月后就被證偽了。
還有一點,即夢做中國市場,我們做全球市場。Seedance2.0 是一個很好的模型,但會不會誕生下一個 Super App?未必。
晚點:你們自己的核心用戶畫像是什么?
謝旭璋:我們的用戶群體里有很多是第一次用 AI 做視頻的人。全球有幾十億人看視頻,這中間有不到 10% 的視頻創(chuàng)作者,而剩下 90% 的人也有表達欲。我們想用 AI 幫他們變成創(chuàng)作者。
晚點:你們也在同時服務 B 端專業(yè)內容制作者,這和 C 端產品的關系是什么?
謝旭璋:C 端占大頭,B 端的專業(yè)內容制作業(yè)務也在增長,比如今年我們在漫劇這類行業(yè)里有明確的收入增長。
可以交互的視頻出現會改變內容生產邏輯
晚點:愛詩節(jié)前新發(fā)布了 “世界模型 PixVerse R1”,它是一個可以實時生成的視頻生成模型,這是真的 “世界模型” 嗎?有人質疑這是蹭概念和熱點。
謝旭璋:行業(yè)內關于世界模型的實現有多條技術路徑,Sora 發(fā)布時叫 World simulator(世界模擬器),Runway 也發(fā)布過以視頻為載體的世界模型。我們對世界模型的定義更通俗地說,是讓 AI 通過學習足夠多事物運行的規(guī)律,產生一個可預測模擬物理、因果、時空等規(guī)律的模型。
在這個大方向上,有的公司會通過視頻、3D、機器人等等來實現。那我覺得,我們的模型學習視頻代表的客觀的世界,構建一個虛擬世界,也是一個非常重要的技術路線。
晚點:我們看到 R1 模型的效果視頻,用戶發(fā)一段提示詞想和畫面互動的時候,畫面會被比較生硬地改變,且只能持續(xù)幾秒,幾秒之后又會變回原來的狀態(tài)。這是你們滿意的效果嗎?
謝旭璋:R1 模型有很多使用場景。我們有一些穩(wěn)定的故事線,也有一些完全發(fā)散的,是根據不同場景進行設計的。模型本身是一個完全開放、有無限可能的模型,但還處于比較初步的階段。
晚點:為什么你們要投入 “實時” 和 “無限生成”?
謝旭璋:我們團隊一直在做一些前瞻性嘗試。2023 年大家都在卷語言模型,我們就開始做視頻了;后來瞄準 ToC 市場做 AI 模板,當時也少有人做。現在的實時生成也是一樣,我們想探索視頻大模型還能怎么落地,想走出一條新路。
至于 R1,是因為我們判斷,未來視頻和游戲的邊界一定會越來越模糊。一旦視頻變得能交互了,全新的內容、用戶和創(chuàng)作機會就會涌現,所以我們必須提前布局。
晚點:可交互的視頻生成,具體能帶來什么新機會?
謝旭璋:在 R1 里,創(chuàng)作和消費是融為一體的。看視頻的人就是創(chuàng)作者,比如通過消耗 Token 來參與互動。以后大家看到的視頻,可能基礎框架一樣,但具體畫面和走向會跟著個人的喜好實時變化。這會給現有的內容消費模式帶來實質性的改變。
晚點:有多少人想一邊看視頻一邊創(chuàng)作?會不會大部分人只想安安靜靜看個視頻,休息一下呢?
謝旭璋:很多用戶他也有一些希望讓別人看到的想法,也許通過視頻生成能讓別人看到他心中的畫面。用戶也更樂于去分享這樣的內容。
晚點:R1 模型現是一個單獨的 web 端產品(
https://realtime.pixverse.ai),合適會用到你們的移動端產品上?
謝旭璋:它目前是一個單獨的產品線。我們會嘗試移動端的形態(tài),同時也在考慮把 R1 進一步迭代成 AI 原生視頻游戲引擎。
晚點:R1 發(fā)布后,有哪些行業(yè)的 B 端客戶來找你們合作?
謝旭璋:游戲行業(yè)比較多。最近谷歌的 Genie 3 沖擊了傳統游戲引擎,R1 也可能用 AI 原生模型重構游戲的底層創(chuàng)作。它可能會成為 AI 游戲引擎的核心底座。以后的游戲開發(fā)不用再像過去那樣熬漫長的大周期了,無論是玩法、畫面還是劇情,AI 都能讓它變得更輕量、更具想象力。更重要的是,它能幫那些不懂代碼但有創(chuàng)意的人,把點子變成真正的游戲。
同時,短劇、漫劇團隊也在積極找過來。以前的視頻都是拍好再分發(fā)給觀眾;但想象一下,以后看短劇,主角是去當 “贅婿” 還是創(chuàng)業(yè),劇情能讓觀眾自己選。一旦視頻變得可交互,整個內容產業(yè)的底層邏輯就變了。
我們自己還是會專注底層技術,期待與游戲、影視、智能設備等行業(yè)的合作伙伴共同探索,在這個模型上做出第一個有意義的產品。
題圖來源:PixVerse R1
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.