南派資訊:1月14日,國內人工智能創業團隊在世界模型方向取得重要進展,愛詩科技正式發布通用實時世界模型 PixVerse R1。這是全球首個支持最高1080P分辨率、可實現即時響應的通用實時世界模型,將視頻生成從以往的“靜態輸出、等待成片”,推進至“實時交互、持續演化”,標志著人工智能視頻技術邁入新的發展階段,也被業內視為中國企業在該前沿領域實現的重要里程碑式突破。
![]()
實時世界模型,是一種能夠對畫面、聲音等內容進行實時生成和交互建模的人工智能系統,使數字場景能夠持續演化,并即時響應用戶操作。實時互動視頻生成是其中主要應用之一。
與傳統 AI 視頻生成需要等待數十秒甚至數分鐘、一次性輸出固定片段不同,PixVerse R1 的核心能力在于“實時交互”。在生成過程中,視頻畫面會隨著用戶指令即時變化,用戶可以持續調整角色狀態、環境變化和鏡頭走向,系統同步響應并保持畫面、角色和場景演化邏輯的一致性,使視頻內容能夠連續生成而非反復重啟,實現“所想即所見、所說即所現”的交互體驗。
這一變化,使 AI 視頻從“生成結果”轉變為“生成過程”。用戶不再只是等待結果的觀看者,而可以像導演一樣介入創作節奏。業內人士形象地比喻,這種體驗就像演員在鏡頭前即興表演——正如周星馳在電影《喜劇之王》中十秒鐘完成七個表情變化的經典表演,在 PixVerse R1 中,用戶也可以在極短時間內連續指示角色哭泣、跳舞或擺出不同姿態,這些變化會隨著視頻進展即時呈現,創意表達不再被“進度條”打斷。
從技術層面看,PixVerse R1 基于原生多模態基礎模型、自回歸流式生成機制和瞬時響應引擎構建。相關機制使視頻不再是由孤立片段拼接而成,而是一條可持續生成、可隨時調整的視覺流。長期以來困擾 AI 視頻生成的畫面突變、邏輯斷裂和高延遲問題,在這一框架下得到系統性突破。
業內認為,實時視頻生成技術正在消除內容創作與傳播之間的技術隔閡,重塑用戶與人工智能生成內容之間的互動方式。視頻不再是生成完成后的靜態成品,而是一個可以被持續干預、不斷演化的過程,創作與消費的邊界也隨之被重新定義。該成果也被視為實時世界模型從研究探索走向可交互、可部署的產品級階段的重要標志。
從全球競爭格局看,這一突破反映出 AI 視頻領域正在出現新的技術路徑分化。據海外第三方人工智能評估機構的公開跟蹤數據,目前全球排名前列的 AI 視頻生成模型,多由中國企業推出。相關產品在生成速度、使用成本和并發能力等方面表現突出。
海外市場研究機構分析指出,中國企業在 AI 視頻領域選擇了一條不同于高算力、重渲染的技術路線,更強調工程化與系統級能力的突破。這種路徑使實時視頻生成技術更容易走向規模化應用,也被視為中國團隊能在世界模型方向實現“從零到一”產品級突破的重要原因。
愛詩科技創始人兼CEO王長虎表示,PixVerse R1是全新的媒體形式,AI 第一次可以基于用戶的意圖實時生成一個持續演化、物理上合理的世界。傳統視頻是被記錄的歷史,而PixVerse R1開創了“正在發生的現在”的實時生成新紀元。無論是 AI 原生游戲、互動電影,還是生成式直播電商體驗,敘事都能“所想即所現”(As You Think)。創作與消費的邊界逐漸模糊:視頻消費者同時也是創作者,能夠在觀看的同時立即調整和生成新內容。
業內人士認為,PixVerse R1 的發布,不僅是單一產品的技術進展,更標志著AI視頻從“預錄制回放”走向“實時動態生成”的關鍵節點。隨著實時生成能力在更多場景中落地,AI 視頻有望在互動娛樂、影視創作、教育培訓、數字仿真等領域釋放更大應用潛力。
愛詩科技成立于 2023 年,專注于 AI 視頻生成大模型及應用研發。公司海外產品 PixVerse 及國內產品“拍我AI”目前全球用戶規模已超過1億,單月月活躍用戶超過1600 萬,產品被廣泛應用于影視、廣告、動漫及內容創作等場景。
此前,愛詩科技因在AI視頻生成效果與產品化推進速度等方面的表現,被業內視為OpenAI 視頻模型 Sora 的有力挑戰者。愛詩科技在發展過程中獲得了多家產業和資本機構支持,其中包括阿里巴巴、巨人網絡等企業參與投資。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.