
本文刊發于《現代電影技術》2026年第1期
專家點評
彭木根
教授、博士生導師
北京郵電大學黨委常委、副校長
近年來,電影新業態新模式向強沉浸感、高自由度、強交互性的深度視聽體驗場景演進,電影科技向“算力-網絡-感知-內容生產流程”全鏈條的系統性耦合持續升級。6G賦能電影工業的兩條落地邏輯需要特別關注:其一,以實時控制系統重構電影制作流程。LED虛擬攝制中,LED屏前拍攝畫面可由6G低時延回傳至導演端,實現“所見即所得”;全息影院里,觀眾可觸感立體角色并同步空間音頻,獲得多感官臨場體驗。其核心在于將“云-網-邊-端”協同渲染與多模態采集構建為閉環實時系統,將時延、抖動、丟包和多流同步等指標融入算網編排。其二,從無線通信拓展為體驗驅動的內容理解與調度。交互式電影中,網絡通過感知場景狀態與交互上下文,對多視點畫面、光場、音頻及觸覺內容進行分層封裝,并動態調度相應內容流,保障體驗質量。面對規模化內容帶來的安全挑戰,6G可將內容指紋、動態水印與訪問控制嵌入傳輸與渲染全流程,實現從電影制作到影院觀影的全鏈路可追溯、可確權、可審計,防范盜版與篡改。《6G網絡賦能沉浸式多媒體與未來電影:從關鍵能力到應用落地》一文介紹了目前6G通信感知計算深度融合沉浸式多媒體業務、未來電影的最新研究成果,系統闡述了協同渲染、通信感知融合、多流同步與智能分發等關鍵路徑,并結合虛擬攝制、全息影院等實例,為電影產業從制作到放映的全鏈路升級提供了技術圖景與實施路徑。該論文對于推進6G通信感知計算與未來電影深度融合及創新發展,推動我國數字經濟高質量發展具有重要的應用價值和指導意義。
基金項目
國家自然科學基金面上項目“應對空口靈巧主動攻擊的安全防御與對抗研究”(62171364);國家自然科學基金面上項目“面向6G無線感知的物理層隱私保護與抗主動攻擊”(62571420)。
作者簡介
![]()
王慧明
博士,教授,西安交通大學信息與通信工程學院博士生導師、智能網絡與網絡安全教育部重點實驗室副主任,主要研究方向:6G時代智能泛在無線網絡與通信關鍵基礎研究。
黃雲淞
西安交通大學信息與通信工程學院2021級博士研究生,主要研究方向:人工智能與無線通信結合的攻防與應用。
![]()
摘要
面向2030年的第六代移動通信(6G)以極致性能、原生智能、通信感知一體和全球覆蓋為核心特征,將為沉浸式多媒體和未來電影提供全新的基礎設施支撐。本文首先梳理了6G在超級無線寬帶、超大規模連接、極其可靠通信、普惠智能服務和通信感知融合等典型場景中的關鍵能力,分析其在速率、時延、連接密度、感知精度與智能水平等方面的指標演進;進一步構建“感知層-網絡層-應用層”一體化的6G沉浸式多媒體應用架構,探討“云-網-邊-端”協同渲染、通信感知一體化、多流同步與語義驅動分發等關鍵技術路徑。在此基礎上,結合虛擬攝制、全息影院與全息遠程協作等具體案例,系統解析6G對電影制作、發行放映和內容形態的重塑機理,揭示從“觀看藝術”向“體驗藝術”的演進趨勢,為6G賦能我國電影產業的技術路線與產業實踐提供參考。
關鍵詞
6G;人工智能;通信感知融合;沉浸式多媒體;電影
1
引言
作為面向2030年的下一代信息基礎設施,第六代移動通信(6G)不是5G的簡單迭代,而是以“極致性能、原生智能、通感一體、全球覆蓋”為內核的范式躍遷:用戶體驗速率達Gbps至數十Gbps、峰值數百Gbps至Tbps、空口時延逼近亞毫秒、定位/感知精度至厘米級、連接密度達每平方千米千萬至上億個設備,并把綠色低碳、內生安全、普惠智能納入頂層設計。6G不再僅承擔“數據通道”角色,而是在“云-網-邊-端”一體化的算網底座上,原生編排模型、數據與算力,支撐沉浸式擴展現實(XR)、全息通信、多維感知、數字孿生(Digital Twin)與智能體(Agent)協同等業務的全球實時協作與規模化落地。
對電影產業而言,全產業鏈條將被重塑:生產側,超帶寬與低時延疊加原生AI與通信感知融合,云端制片成為常態:跨域8K/16K與體積視頻(Volumetric Video)邊拍邊回傳至云端,剪輯、調色、特效、渲染同步協同;通信感知一體實現機位、演員與LED場景“毫秒-厘米級”雙向同步,虛擬攝制走向極致擬真;原生人工智能(AI)將分鏡、鏡頭語言、節奏或情緒標注與初剪建議嵌入實時工作流。發行與放映端,三層沉浸式多媒體架構與低時延多路徑傳輸支撐“零等待”超清流媒體、自由視角與8K 虛擬現實(VR)直播;全息+空間音頻+觸覺編碼在家庭與影院并行成熟,影院進化為高并發交互的沉浸式社交場域;營銷側,通信感知融合驅動情境化、實時化、可交互宣發,海報即入口、場景即媒介、互動即轉化。
更進一步,6G將拓展電影的邊界:體積視頻、數字孿生與智能體協同走向常態,電影由“被觀看的內容”升級為“可參與的場域”;觀眾通過全息、增強現實(AR)、VR等以角色與任務鏈路介入并改寫故事;觀眾基于開放素材進行二次創作,IP演化為“世界工程”。隨之而來的是體系更新,成本結構向算力、網絡、內容資產的重估傾斜;版權范式由“鏡頭/畫面”擴展至“模型/場景/交互邏輯”;人才譜系轉向表演設計、通信感知交互、人工智能生成內容與算網編排等復合型崗位。
2
6G網絡的典型場景與關鍵能力
2.1 從連接到智能:6G的總體演進邏輯
面向2030年的6G網絡,是信息社會從“萬物互聯”走向“萬物智聯”的關鍵拐點。相比5G聚焦增強移動寬帶(eMBB)、超可靠低時延通信(uRLLC)與海量物聯網通信(mMTC)3大場景,6G在此基礎上深度融合AI、感知計算與非地面通信,形成“六大典型場景”與“六大關鍵特征” [1]。
其核心邏輯不再局限于“傳輸性能的線性增強”,而是通過通信、計算、感知與智能的原生耦合,實現算網一體、通感一體、智聯一體、空天地海一體的綜合演進。這一體系以極致性能(Tbps級峰值速率、亞毫秒時延、厘米級定位)、原生智能(AI原生學習與推理)、全球覆蓋(空天地海一體化)和綠色可持續(能效提升20倍)為底座,重新定義了“網絡”的邊界[2]。由中國工業和信息化部推動成立的IMT?2030(6G)推進組指出,6G不僅是一張網絡,更是一種融合物理世界與數字孿生世界的“基礎智能系統”[3](圖1),這意味著未來通信系統將原生具備學習、預測、優化、自治等能力,從而成為經濟社會智能化的底層引擎[4]。
![]()
圖1 6G的總體演進邏輯[1]
2.2 六大典型場景:從感官到智能體
根據《6G典型場景和關鍵能力》白皮書,6G在繼承5G三大場景的基礎上,系統將擴展為6個核心典型場景[1]。
2.2.1 沉浸式通信:支撐沉浸式體驗的千倍速網絡
沉浸式通信是增強移動寬帶的演進形態,未來將體驗速率從5G的Gbps推升至數十Gbps,峰值速率可達Tbps級別。其目標是讓人機交互、云渲染、體積視頻、全息通信等沉浸式業務實現“零等待、全同步”的體驗。典型應用如云化XR與全息通信,可實現8K/16K全息視頻的實時傳輸與渲染,支持多感官交互(視覺、聽覺、觸覺)。感官互聯與觸覺互聯網,即實現跨地域實時的多感官協同,如遠程手術與觸覺VR。該場景的技術指標包括體驗速率10~20 Gbps、時延<1 ms、抖動μs級、同步精度20 ms內,可靠性達99.999%。這類高通量業務直接驅動6G采用更高頻譜(太赫茲)、超大規模天線(XL?MIMO)、智能反射面等關鍵技術,同時要求網絡具備分布式計算與感知協同能力,以支持云端渲染與端側實時響應[5]。
2.2.2 海量通信:從物聯網到智聯網
6G的第2個典型場景是海量通信,其連接密度將從5G的每平方千米百萬級提升到千萬甚至上億。這意味著其將從“海量物聯網”邁向“普適智聯網”,每個物理對象、傳感節點乃至數字孿生體都具備可通信的數字身份。典型應用包括:智慧城市與數字孿生城市(海量傳感器實時采集運行數據,云端進行高精度仿真與預測)、智慧農業與生態監測(厘米級精準感知與遠程控制)以及工業物聯網與能源網絡(支撐柔性制造與安全運維)。該場景對網絡提出高連接密度、低功耗與可持續能效要求,預計能量效率將提升20倍以上。
2.2.3 超級高可靠低時延:支撐人機共融的控制神經
超級高可靠低時延是uRLLC的升級版本,目標是實現“7個9”級可靠性(99.99999%)與亞毫秒級時延。這一能力面向工業機器人協作、自動駕駛群控、遠程手術、無人機編隊等高風險實時業務。例如在智能制造中,6G可實現微秒級抖動控制,100 ns時間同步精度,支持納秒級信號協調,使多個機器人能在毫厘級精度下協作。這種確定性通信模式將推動6G引入時間敏感網絡(TSN)、網絡切片與AI預測調度技術,實現高穩定性與高安全性并存。
2.2.4 AI集成:AI原生網絡的計算中樞
AI集成是6G最具標志性的新場景,其使AI從“網絡應用”轉為“網絡原生能力”,實現AI賦能網絡(AI for Network)與網絡賦能AI(Network for AI)的雙向融合。6G網絡將內嵌智能體(Agent),實現分布式學習、邊緣推理與云端調度,支撐千億級智能終端的協同學習與個性化推理。典型應用包括:智慧交互與腦機接口,支持情感識別與自然交互;分布式AI訓練,如自動駕駛群體智能與數字孿生訓練;智能生產優化,通過聯邦學習實現跨域協同決策。性能目標包括:AI服務精度>90%,區域流量密度>10 Gbps/m2,時延<1 ms,未來將支持數萬節點并發學習。這一場景代表了6G“普惠智能”的核心理念,即讓AI計算像通信服務一樣普遍可得、低成本、低能耗。
2.2.5 感知集成:萬物皆可“被看見”的網絡
通信感知一體化(ISAC)被視為6G最具革命性的能力之一。6G網絡將具備“看得見”的特性:同一無線信號既承載通信,又執行感知任務。典型應用包括高精度定位(厘米級)、環境重建、手勢識別、被動目標檢測等。例如,在無人駕駛場景中,車輛通過6G網絡即可完成毫米級感知定位,無需額外雷達或激光器;在影視虛擬攝制中,可實現演員與LED場景的“通感同步”。技術上,ISAC融合雷達感知、太赫茲信號、AI重建算法,實現距離、角度、速度的多維探測;同時通過智能協同感知網絡,實現跨節點的信息融合與互校。
2.2.6 無處不在:空天地海一體化的全球立體覆蓋
6G的“無處不在”場景旨在構建一個連接太空、空中、陸地、海洋的全球空天地海一體化網絡,以徹底消除數字鴻溝。其通過融合地面蜂窩網絡與衛星、高空平臺等非地面網絡,實現對偏遠地區、遠洋、低空等5G盲區的無縫覆蓋,為用戶和終端提供真正的泛在連接。典型應用包括為自然災害地區提供全域應急通信,為飛機、無人機物流等構建高可靠的立體交通網絡,并為部署在極端環境中的海量傳感器提供連接,助力數字孿生地球的構建。為實現這一目標,6G將依賴天地一體融合的網絡架構、太赫茲等新頻譜的開發利用,以及確定性網絡等關鍵技術,以確保用戶在不同網絡間能夠無感切換,并獲得確定性的服務保障。該場景是6G實現“萬物智聯”社會的物理基石。
2.3 未來通信網絡的六維能力
《6G典型場景和關鍵能力》白皮書指出,6G的關鍵能力體系由性能指標、效率指標與智能特征構成。這些指標構成未來通信網絡的六維能力空間,如表1所示。
表1 未來通信網絡的六維能力
![]()
此外,6G強調三項效率維度:頻譜效率提升1.5~3倍,通過太赫茲頻段與智能波束賦形(Beamforming);能量效率提升20倍,實現“綠能通信”;可信度(Trustworthiness)內生化,通過安全自治機制保障隱私與韌性。總體來看,6G的能力框架不再僅是“性能三角”,而是“通信-計算-感知-智能-安全-綠色”的六棱結構,既面向算力融合,也面向社會可持續。
2.4 從典型場景到能力閉環
結合以上分析,6G網絡在六大典型場景與六大關鍵能力間形成了完整的能力閉環。以通信為基礎,提供全球無縫覆蓋與超寬帶連接;以計算為核心,實現“云-網-邊-端”算力協同與AI訓練推理;以感知為延伸,通過通信感知融合獲取物理世界數字孿生信息;以智能為靈魂,構建可自學習、自優化、自修復的自治網絡;以安全為底線,通過內生安全機制實現可信、隱私與韌性;以綠色可持續性為準則,貫穿設計、部署、運維全過程的節能理念。
6G網絡的典型場景與關鍵能力共同構建了面向2030年的智能基礎設施。其從根本上重塑“連接”的概念:連接的不只是人和設備,而是數據、智能與現實的融合體。超級無線寬帶讓感官得以自由延展;超大規模連接讓每個物體具備數字映射;極其可靠通信讓機器具備安全協作的神經反射;普惠智能讓AI無處不在;通信感知融合讓網絡成為“看得見世界”的數字感官。當這些能力匯聚,6G不僅將賦能沉浸式多媒體與未來電影產業,更將成為數字社會的“神經系統”與“智能大腦”。
3
6G賦能沉浸式多媒體的應用架構與技術路徑
3.1 總體思路與系統定位
6G賦能沉浸式多媒體的核心在于“網絡-算力-智能-感知”一體化協同。在IMT-2030(6G)推進組發布的《6G沉浸式多媒體業務需求及關鍵技術研究報告》中指出,6G將同時支撐XR、全息通信、多維感知等復合形態業務,其架構由感知層、網絡層和應用層構成(圖2),形成從物理世界到數字世界的閉環,使“沉浸體驗”從內容生產到實時交互再到反饋控制實現全鏈貫通[6]。
![]()
圖2 6G沉浸式通信總體架構[6]
在這一體系下,6G沉浸式多媒體不再是單一的視頻傳輸業務,而是一種融合渲染、通信感知同步、智能調度與實時建模的動態系統。與5G相比,6G將實現從媒體網絡到智能感知網絡的躍遷,其關鍵技術路徑可概括為3條主線:(1)網絡原生智能化,實現AI在傳輸、編解碼、路由與服務質量(QoS)控制中的全棧嵌入;(2)通信感知計算融合,在同一基礎設施中并行感知、通信與計算,實現數據流、模型流與能量流統一;(3)沉浸式交互重構,通過體積視頻、空間音頻、觸覺與全息編碼實現多維人機共生體驗[7]。
3.2 架構分層與功能模塊
3.2.1 感知層:多模態采集與實時交互
感知層負責多維感知信息的采集、編碼與上行傳輸,包括視覺、聽覺、觸覺及空間定位等數據。該層主要由攝影機、深度傳感器、慣性測量單元(IMU)、AR眼鏡、觸覺手套及語音交互終端構成。視覺維度:采用多基線深度攝像陣列與光場傳感,實現從2D到六自由度(6DoF)全景的采集。聽覺維度:空間麥克風陣列記錄場景聲源位置與聲場反射信息,用于空間音頻重構。觸覺與嗅覺維度:基于壓電陣列與納米傳感器,進行力覺、紋理與氣味信號的采樣。行為與姿態維度:IMU與激光雷達實現厘米級動作捕捉與同步定位。
6G網絡提供的亞毫秒級空口時延確保運動到光子(Motion?to?Photon)鏈路閉環控制不超過20 ms,保證XR和全息交互的穩定性與無眩暈體驗。
3.2.2 網絡層:算網一體與QoS智能調度
網絡層承擔沉浸式多媒體的傳輸與資源管理職能,由承載子層與服務引擎子層兩部分組成。承載子層提供具備QoS保障的超寬帶傳輸,采用多路徑并發與多接入邊緣計算(MEC)協同結構。多路徑協議(MP?QUIC、MP?TCP)實現跨終端流量的智能聚合。服務引擎子層實現沉浸業務的智能感知與動態調度,核心模塊包括:(1)數字孿生引擎:,構建物理場景與數字孿生空間的映射,實現虛實共存;(2)實時交互控制引擎,支撐多模態流的同步與時序對齊,保證多媒體一致性;(3)QoS智能感知與調度引擎,實時監測帶寬、時延、抖動、丟包等指標,并通過AI自適應調整編碼速率與傳輸路徑;(4)通信感知融合引擎,在通信鏈路中嵌入雷達/光學/聲學感知,實現網絡側對用戶行為與場景的感知反向反饋。
3.2.3 應用層:云端渲染與沉浸式內容分發
應用層整合算力、數據與AI模型,實現內容生成、交互與分發的閉環生態。其技術路徑主要包括:(1)云渲染與邊緣卸載,通過6G高速鏈路與分布式圖形處理器(GPU)集群,實現8K/16K視頻、體積視頻及全息影像的實時渲染;(2)智能編解碼體系,采用基于感知優化的自適應視頻編碼與AI增強壓縮算法,在確保主觀體驗質量(QoE)的前提下降低50%以上帶寬占用;(3)沉浸式媒體同步,引入“多并發流協同控制”機制,實現音視頻、觸覺、氣味等多流對齊與幀級同步;(4)全息與空間音頻呈現,通過點云編碼與空間音頻渲染,實現三維立體感與空間方位一致性。
3.3 關鍵技術路徑分析
3.3.1 基于云-邊協同的實時渲染體系
6G沉浸式多媒體系統的核心性能瓶頸在于渲染延遲。通過“云端超算+邊緣GPU”協同架構,可實現渲染任務的層次化分配:云端完成全局光照與復雜物理計算;邊緣節點執行低時延畫面合成與動態貼圖;終端僅保留輕量顯示與局部補幀模塊。該架構結合AI預測與網絡時延反饋,動態分配算力資源,使端到端時延控制在10~20 ms以內。
3.3.2 多模態通信感知融合
通信感知一體化是6G區別于前代的核心能力。系統通過毫米波/太赫茲信道實現通信與感知復用,利用反射信號估計用戶位置與姿態,實現無傳感器追蹤;再結合AI推理構建場景級動態模型。這使虛實共生的交互體驗成為可能,如全息會議中人物的即時空間重構。
3.3.3 智能分發與語義路由
傳統內容分發網絡(CDN)模式在6G時代將演化為語義驅動的智能分發。網絡將根據內容語義(如鏡頭運動或角色表情)進行優先級調度。例如,在全息直播場景,系統可僅優先更新觀眾視場角(FoV)區域內的像素,實現帶寬節省與時延優化。語義路由結合AI編碼,實現從比特傳輸向信息傳輸轉變。
3.3.4 多維交互與沉浸安全
6G沉浸式多媒體不再是單向傳播,而是多維感官參與的交互系統。為此需構建觸覺互聯網協議棧、情境安全機制和隱私保護框架。觸覺互聯網協議棧確保力覺與溫度信號的毫秒級同步;情境安全機制在通信感知協同中嵌入物理層安全編碼,實現竊聽防御與身份認證;隱私保護框架通過聯邦學習與可驗證計算保障個人感知數據安全。
3.4 典型應用架構實例
結合本文中的系統框架與影視領域特性,可提煉出以下3種典型架構。(1)云端虛擬攝制架構:利用6G多路徑回傳與邊緣渲染,LED虛擬場景、演員動作捕捉與計算機圖形學(CG)生成實現毫秒級同步,支持跨域拍攝協作;(2)全息影院傳輸架構:基于點云與空間音頻的多流協同傳輸,通過多路徑傳輸(MP?QUIC)與QoS智能調度,保證每位觀眾的視角獨立與音場一致;(3)多感官互動傳播架構:通過通信感知融合與觸覺網絡,構建沉浸式廣告與交互敘事系統,實現“場景即媒介”的體驗傳播。
展望2030年以后,6G賦能沉浸式多媒體的演進方向將呈現以下趨勢。(1)算網融合深化:云邊端協同渲染與AI推理將成為沉浸內容分發的核心底座;(2)協議體系革新:基于快速UDP網絡連接(QUIC)/HTTP/3的多路徑傳輸與實時語義調度將成為主流;(3)全息交互普及:體積視頻、裸眼全息與觸覺互聯網的深度融合,推動從“沉浸觀看”向“共生參與”轉變;(4)產業生態融合:影視、游戲、教育、醫療等領域將在6G沉浸平臺上實現跨界融合與資產共享;(5)標準體系統一:國際電信聯盟(ITU)、第三代合作伙伴計劃(3GPP)、運動圖像專家組-沉浸式媒體(MPEG?I)及虛擬現實與增強現實標準工作組(IEEE P2048)等的標準將協同形成全球沉浸式多媒體技術框架[8]。
4
6G賦能現代電影工業的案例應用與分析
4.1 虛擬攝制系統:6G驅動的云端協作與通信感知同步
6G賦能下的“云端虛擬攝制”代表著電影工業鏈條的結構性變革。其核心理念是通過超高速率與超低時延網絡,實現素材、渲染、AI模型、控制信號在全球范圍內的實時協作,構建真正意義上的“跨時空制作場景”。基于6G網絡的虛擬攝制系統通常采用“現場-邊緣-云端-渲染中心”4層架構。拍攝現場部署多維傳感陣列(包括高分辨率攝影機、動作捕捉系統、LED穹頂、觸覺接口等),將原始影像與位姿數據通過6G網絡的Tbps級鏈路回傳至云端平臺。在云端,AI與通信感知融合引擎對數據進行同步建模和實時渲染;邊緣節點承擔快速合成與延遲補償;現場終端則僅負責光學采集與低延遲顯示[9]。
該模式的關鍵能力包括:(1)超高速上行傳輸,單路8K/16K素材回傳可達10 Gbps以上,支持多機位并發;(2)毫米級通信感知精度,可通過太赫茲信號感知實現演員動作與虛擬環境的厘米級同步;(3)AI協同渲染,基于分布式GPU與推理模型的云渲染,可將場景合成時延控制在20 ms以內[10]。
假設一部國際合拍電影的主要團隊分布于上海、溫哥華和約翰內斯堡。在傳統模式下,跨域素材回傳與后期同步需要數小時甚至數天。而在6G環境中,攝影師在非洲拍攝的16K HDR素材可實時傳至云端,AI自動完成光照匹配與初步摳像;同時,位于上海的虛擬攝制團隊可在LED屏幕中即時預覽并指導拍攝參數調整,實現“全球同幀”制作。這種模式不僅消除了時差阻礙,也重塑了電影工業的組織邏輯,使協同制作成為常態。
LED虛擬攝制的瓶頸在于大規模多流并發同步與超高分辨率數據的實時壓縮傳輸。6G時代通過AI驅動的感知編解碼與語義壓縮,可在保持畫面質量的前提下降低約70%的帶寬占用。未來的研究重點包括:(1)語義層QoS控制,以鏡頭運動或角色表情為調度單元,實現差異化編碼;(2)分布式協作渲染,利用算網一體架構動態分配云邊算力資源;(3)虛實通信感知建模,提升虛擬場景與物理動作的同步精度,實現“以假亂真”的沉浸式體驗[11]。
4.2 全息影院:6G支持下的沉浸式觀影革命
全息影院是6G網絡在視聽終端領域的代表性應用。根據《6G沉浸式多媒體業務需求及關鍵技術研究報告》中的架構圖,全息影院系統包括內容制作端、云分發中心、6G接入層與多模態呈現端4個模塊。在這一體系中,6G的Tbps傳輸能力與μs級抖動控制使“體積視頻+空間音頻+觸覺反饋”得以同步呈現,觀眾不再僅觀看屏幕,而是進入一個可交互的三維敘事空間。
基于6G原型系統的8K全息觀影實驗廳通過分布式天線系統(DAS)與太赫茲鏈路接入6G骨干網絡,每個觀眾席位均嵌入空間音頻節點與紅外感知模塊。在觀影過程中,系統可根據觀眾視線與姿態,實時調整全息投影角度與音源定位,實現“視聽同步+空間響應”。此外,觸覺反饋系統可在動作場景中生成氣流與震動,增強臨場感[12]。
關鍵技術與性能指標包括:(1)點云與全息編碼,采用MPEG?PCC標準,點云壓縮率提高60%;(2)空間音頻同步,唇音時延差<10 ms,定位誤差<5°;(3)網絡層調度,通過AI智能感知引擎動態分配帶寬,保證多流穩定性。6G全息影院不僅是電影放映的革新,更是文化娛樂與社交體驗的融合空間。其商業模式包括:(1)云端內容分發平臺,觀眾可通過其訂閱訪問全球全息內容庫。(2)實時共映系統,不同地區影院可同步播放同一場全息演出。(3)多角色沉浸觀影,觀眾可選擇角色視角,實現參與式敘事體驗。未來,全息影院有望成為“6G+文化產業”的核心示范形態,其成功落地將帶動顯示設備、音頻處理、網絡基礎設施等多產業協同發展[13]。
4.3 全息遠程協作與表演:虛擬存在的藝術延伸
6G全息通信使遠程表演與指導進入實用階段。該系統基于“多點采集-全息重建-空間呈現-雙向交互”流程,實現異地創作者的實時共場表演。
在6G支持下,全息通信數據的傳輸速率可達數十Gbps,端到端延遲控制在5 ms以內。演員的三維姿態、表情與聲音信息通過體積采集裝置生成點云流,經AI壓縮后傳入云端渲染引擎,再通過網絡下行到遠端全息顯示設備,實現真實比例的“立體再現”。
如圖3所示,跨國全息表演在未來將成為可能。導演在北京現場指導,演員位于巴黎,通過全息重建系統出現在同一虛擬舞臺。系統使用6G邊緣節點處理延遲補償,并采用AI動作預測算法,在網絡抖動情況下依然維持<3 ms視覺延遲,實現完全同步的表演節奏[14]。
![]()
圖3 6G賦能全息通信示意圖[10]
這一模式的技術挑戰與優化方向包括:(1)點云實時壓縮算法,需在1 Gbps下完成每秒5000萬個點的編碼;(2)多節點同步與動態光照調整,確保不同地理位置間的全息融合一致;(3)網絡安全與隱私防護,全息通信涉及高敏感生物特征數據,需引入端到端加密與可信執行環境。該模式未來將推動影視與舞臺藝術、虛擬演唱會、數字人直播等業態的融合,形成6G時代的沉浸式表演經濟。
4.4 6G賦能電影產業的綜合展望
6G不僅將重塑電影的制作、發行與消費模式,更將推動產業鏈數字化重構。從制片、后期、放映到宣傳發行,數據與智能成為貫穿全流程的底層邏輯。在技術層面,6G實現通信、計算與感知融合,使影視工業進入“通信感知智造”時代;在產業層面,虛擬攝制、全息影院、數字演員與AI創制將構成新型影視生態;在文化層面,觀眾角色從“被動接收者”轉為“共創參與者”,電影由線性敘事轉向空間敘事;在治理層面,需建立沉浸式版權管理、數據安全與倫理標準體系,確保技術進步與藝術本體平衡[15]。
值得注意的是,6G賦能電影工業并非孤立于現有的信息化體系,而是對云計算時代電影工業化體系的縱深延展。正如劉達[16]等學者指出,云計算、大數據與智能科學將成為電影工業化的核心支撐。6G的出現,使這一“云端智能體系”獲得了超高速率、超低時延和原生通信感知的底層動力。基于6G與云計算的能力,可通過構建“6G-Cloud一體化電影工業體系”(圖4),實現制片、渲染、分發、放映的全鏈路智能協同。
![]()
圖4 “6G?Cloud一體化電影工業體系”框架圖
綜上所述,6G賦能下的電影產業正迎來從“影像化敘事”向“體驗式存在”的歷史跨越。我們也給出了基于6G-云計算未來智能電影工業體系的四大支柱(表2),其不僅是網絡技術的革命,更是人類審美與敘事方式的更新。未來的電影或許不再是一場“觀看”,而是一種多維度的參與、一場實時生成的夢境[17]。
表2 6G-云計算未來智能電影工業體系的四大支柱
![]()
5
結語
作為面向2030年的下一代信息基礎設施,6G正在從“更快的移動通信網絡”演變為“融合通信、計算、感知與智能的基礎系統”。本文從6G的典型場景與關鍵能力出發,梳理了其在速率、時延、連接密度、通信感知精度與原生智能等方面的技術躍遷,指出6G將為沉浸式多媒體和未來電影提供前所未有的網絡與算力底座。圍繞這一底座,文章進一步構建了“感知層-網絡層-應用層”一體化的應用架構,分析了“云-網-邊-端”協同渲染、通感融合、多模態同步與語義路由等關鍵技術路徑,為理解6G如何在系統層面支撐沉浸式業務提供了較為完整的技術圖景。
在具體應用層面,本文結合虛擬攝制、全息影院、全息遠程協作與表演等典型案例,展示了6G賦能電影工業的可能形態:一方面,“云端制片”“全球同幀制作”等新型生產模式,有望重塑傳統的拍攝-后期制作-發行流程,形成跨地域、跨平臺的協同創作網絡;另一方面,全息放映、XR敘事與多感官互動,將推動觀影從線性單向的“銀幕觀看”走向空間化、參與式的“沉浸體驗”,電影與游戲、現場演出等形態間的邊界將進一步模糊。同時,通信感知融合與原生智能也為智能宣發、場景化營銷和IP共創提供技術支點,使電影在“被觀看”之外,逐步成為一種可交互、可再造的文化場域。
需要指出的是,6G賦能電影產業的圖景尚處于從概念走向落地的關鍵過渡期。超高成本的基礎設施與算力投入、沉浸式內容生產的復雜度提升、設備與網絡條件差異導致的“沉浸式數字鴻溝”,以及體積視頻與全息內容的版權確權、數據安全與AI生成內容的倫理邊界等問題,均對行業提出了系統性挑戰。面向未來,一方面亟需通過國家層面的6G與超高清/沉浸式媒體聯合示范工程,推動虛擬攝制基地、全息影院與沉浸式體驗空間的試點建設,探索可復制的技術與商業模式;另一方面,應加快構建涵蓋技術標準、內容規范、版權治理與人才培養的綜合支撐體系,促成通信領域與電影產業、高校與企業間的深度協同。
總體來看,6G對電影的意義并不僅是“更快的下載”或“更清晰的畫面”,而是通過極致連接和原生智能,從底層重構電影的生產方式、發行渠道、消費場景與藝術形態,使電影從一門“觀看的藝術”逐步走向一門“體驗的藝術”。隨著6G標準與產業生態的持續完善,可以預期,未來電影將在虛實融合、共創共生的人機協同空間中生長,為公眾帶來更加多維、開放與個性化的敘事體驗,同時也為我國在6G與數字文化融合創新上的自主發展提供重要機遇。
參考文獻
(向下滑動閱讀)
[1] IMT-2030(6G)推進組.6G典型場景和關鍵能力白皮書[R].2022.
[2] IMT-2030(6G)推進組.6G總體愿景與潛在關鍵技術白皮書[R].2021.
[3] IMT-2030 網絡組. 6G 網絡架構愿景與關鍵技術展望白皮書[R].IMT-2030 中國6G大會, 2021.
[4] 歐陽曄, 王立磊, 楊愛東,等. 通信人工智能的下一個十年[J]. 電信科學, 2021, 37(3):36.
[5] 劉光毅,鄧娟,鄭青碧,等.6G智慧內生:技術挑戰、架構和關鍵特征[J].移動通信,2021,45(04):68?78.
[6] IMT-2030(6G)推進組. 6G沉浸式多媒體業務需求及關鍵技術研究報告[R].2021.
[7] 中央廣播電視總臺. 8K超高清電視節目制播技術要求(暫行)[S]. 2021:01.
[8] 李巖, 劉斌. 8K JPEG?XS制播全流程測試概述[R]. 北京: 中央廣播電視總臺, 2022.
[9] NHK Science & Technology Research Laboratories. Future Vision 2030-2040[R]. Tokyo: NHK STRL, 2020.
[10] 中國移動通信有限公司研究院. 全息通信業務發展趨勢白皮書[R].2022.
[11] 于寧. 全景視頻的投影轉換及編碼[D]. 北京:北京交通大學,2020.
[12] CHEN Z, LI Y, ZHANG Y. Recent advances in omnidirectional video coding for virtual reality: Projection and evaluation[J]. Signal Processing, 2018, 146(4): 66?78.
[13] WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: From error visibility to structural similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600?612.
[14] CHAKARESKI J. Viewport?Adaptive Scalable Multi?User Virtual Reality Mobile?Edge Streaming[J]. IEEE Transactions on Image Processing, 2020, 29: 6330?6342.
[15] DUANMU F, HE Y, XIU X, et al. Hybrid cubemap projection format for 360?degree video coding[C]//2018 Data Compression Conference. Snowbird, UT: IEEE, 2018: 404?404.
[16] 劉達.云計算時代電影工業化體系構建策略與工程設計思考[J].現代電影技術,2020(01):23?29.
[17] ITU-T FG NET2030, Sub-G2. New Services and Capabilities for Network 2030 Description, Technical Gap and Performance Target Analysis[R]. ITU-T, 2019.
劉達等:智能時代電影科技發展演進與虛擬現實電影創新提質研究
期刊導讀 |《現代電影技術》2026年第1期
《現代電影技術》2026年選題指南
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.