<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      《現(xiàn)代電影技術(shù)》|楊璨等:基于物理引導(dǎo)的圖像亮度增強(qiáng)神經(jīng)網(wǎng)絡(luò)研究

      0
      分享至


      本文刊發(fā)于《現(xiàn)代電影技術(shù)》2026年第1期

      專家點(diǎn)評(píng)

      劉知一

      高級(jí)工程師

      中國電影科學(xué)技術(shù)研究所(中央宣傳部電影技術(shù)質(zhì)量檢測(cè)所)影像制作技術(shù)研究處副處長

      圖像亮度增強(qiáng)是影視調(diào)色的核心技術(shù)環(huán)節(jié),通過對(duì)畫面亮度層級(jí)、動(dòng)態(tài)范圍、局部對(duì)比度精準(zhǔn)調(diào)控,可以統(tǒng)一影片色調(diào)、塑造獨(dú)特視覺風(fēng)格、引導(dǎo)視線突出主體等,是連接拍攝素材與最終成片效果的關(guān)鍵橋梁,達(dá)芬奇、Adobe Premiere Pro以及Final Cut Pro等工具軟件均內(nèi)置圖像亮度自動(dòng)調(diào)節(jié)功能。然而現(xiàn)有功能的底層算法,例如基于直方圖均衡、基于人類視覺系統(tǒng)(HVS)增強(qiáng)等,在對(duì)可見度低、噪聲多的低光圖像進(jìn)行亮度自動(dòng)增強(qiáng)時(shí),容易出現(xiàn)偽影和色彩斷層等現(xiàn)象,需要耗費(fèi)大量時(shí)間進(jìn)行手工調(diào)整?!痘谖锢硪龑?dǎo)的圖像亮度增強(qiáng)神經(jīng)網(wǎng)絡(luò)研究》提出了一種新的“物理主干+殘差微調(diào)”混合架構(gòu),通過預(yù)設(shè)曝光區(qū)間約束全局伽馬指數(shù)與增益系數(shù)、僅對(duì)局部高頻進(jìn)行細(xì)節(jié)補(bǔ)償、采用基于物理先驗(yàn)約束損失函數(shù)替代偏微分方程求解等多種技術(shù)手段,不僅能在對(duì)低光圖像亮度智能調(diào)節(jié)時(shí),實(shí)現(xiàn)更穩(wěn)定的色彩保真和偽影抑制,并且平均推理時(shí)間等性能指標(biāo)突出,在增強(qiáng)效果與計(jì)算效率上取得了較好平衡。該論文提出的輕量化混合架構(gòu),雖然目前尚需依賴成對(duì)數(shù)據(jù)訓(xùn)練,但在單個(gè)GPU顯卡算力條件下,能夠高質(zhì)量實(shí)現(xiàn)低照度圖像信噪比平衡、逆光場(chǎng)景光暈抑制等低光圖像智能增強(qiáng),不僅具備很好的實(shí)用性,而且為國產(chǎn)電影級(jí)圖像處理軟件增強(qiáng)人工智能調(diào)色功能,趕超國外同類型軟件提供了有力的底層核心算法支撐。

      基金項(xiàng)目

      2025年度國家社科基金藝術(shù)學(xué)年度項(xiàng)目“智能影像創(chuàng)作與傳播的中國路徑與自主體系研究”(25AC006)。

      作者簡(jiǎn)介


      楊 璨

      碩士,北京電影學(xué)院聲音學(xué)院講師,主要研究方向:綜合媒體技術(shù)。

      鄢凱杰

      北京電影學(xué)院智能影像工程學(xué)院博士研究生在讀,主要研究方向:數(shù)字電影高新技術(shù)。



      陳曉悅

      碩士,北京電影學(xué)院教學(xué)實(shí)踐中心實(shí)驗(yàn)師,主要研究方向:數(shù)字電影技術(shù)。

      劉一葦

      碩士,高級(jí)工程師,北京航天情報(bào)與信息研究所副主任,主要研究方向:影像與聲音技術(shù)。


      摘要

      針對(duì)低照度圖像亮度不足以及噪聲、色偏難以同時(shí)校正的問題,本研究提出一種基于物理引導(dǎo)的圖像亮度增強(qiáng)神經(jīng)網(wǎng)絡(luò)。該方法在線性空間中分解圖像的亮度與色度,以少量超參數(shù)控制的單調(diào)色調(diào)曲線構(gòu)成物理主干網(wǎng)絡(luò),殘差網(wǎng)絡(luò)僅學(xué)習(xí)幅度受限的局部補(bǔ)償,并將多種物理一致性軟約束引入作為損失函數(shù)的一部分。在低照度街景數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果顯示,該神經(jīng)網(wǎng)絡(luò)在多種指標(biāo)上均具有較優(yōu)表現(xiàn)。研究證實(shí),將可解釋的物理模型與數(shù)據(jù)驅(qū)動(dòng)的神經(jīng)網(wǎng)絡(luò)相結(jié)合,能顯著提升圖像亮度增強(qiáng)結(jié)果的自然度與穩(wěn)定性,為跨場(chǎng)景應(yīng)用提供技術(shù)基礎(chǔ)。

      關(guān)鍵詞

      神經(jīng)網(wǎng)絡(luò);低照度;圖像增強(qiáng);影視畫面增強(qiáng);交互畫面增強(qiáng)

      1

      引言

      圖像亮度增強(qiáng)(Image Luminance Enhancement)作為底層視覺任務(wù)(Low?Level Vision Task)的核心之一,長期以來在電影后期調(diào)色、視覺特效(VFX)、高動(dòng)態(tài)范圍(HDR)內(nèi)容生成等領(lǐng)域扮演著關(guān)鍵角色。傳統(tǒng)的增強(qiáng)方法主要基于如直方圖均衡化(HE)算法一類的統(tǒng)計(jì)模型[1]或基于視網(wǎng)膜大腦皮層(Retinex)理論的物理模型[2]。這類方法具備計(jì)算高效且可解釋性強(qiáng)的優(yōu)勢(shì),但在面對(duì)復(fù)雜光照環(huán)境或非均勻噪聲時(shí),往往難以兼顧全局動(dòng)態(tài)范圍與局部紋理細(xì)節(jié)的平衡,易產(chǎn)生光暈效應(yīng)或色彩偏移。

      近年來,隨著深度學(xué)習(xí)(DL)的興起,以U?Net與Transformer為代表的深度神經(jīng)網(wǎng)絡(luò)(DNN)架構(gòu),通過數(shù)據(jù)驅(qū)動(dòng)的方法在圖像重建與增強(qiáng)任務(wù)中取得了顯著進(jìn)展[3]。其憑借強(qiáng)大的特征提取與上下文建模能力,大幅提升了增強(qiáng)效果的視覺質(zhì)量。然而,純數(shù)據(jù)驅(qū)動(dòng)模型通常存在物理一致性缺失的問題:其傾向于過度擬合訓(xùn)練數(shù)據(jù)的分布,而在處理未見過的場(chǎng)景時(shí),容易產(chǎn)生違反物理規(guī)律的偽影。此外,這類模型通常依賴大規(guī)模的配對(duì)數(shù)據(jù)集進(jìn)行監(jiān)督訓(xùn)練,這在高質(zhì)量HDR內(nèi)容生成或視效數(shù)據(jù)稀缺的場(chǎng)景下難以實(shí)現(xiàn)。

      為引入物理約束以提升模型的泛化性,物理信息神經(jīng)網(wǎng)絡(luò)(Physics?Informed Neural Networks, PINN)提供了一種新思路[4]。物理信息神經(jīng)網(wǎng)絡(luò)通過將物理方程,特別是偏微分方程(PDE)嵌入損失函數(shù)(Loss Function)來約束解空間。然而,將物理信息神經(jīng)網(wǎng)絡(luò)直接遷移至復(fù)雜的成像鏈路(ISP Pipeline)面臨巨大障礙,成像過程涉及照明、反射、傳感器噪聲及非線性色調(diào)映射(Non?Linear Tone Mapping)的多重耦合,難以用單一、顯式的偏微分方程精準(zhǔn)描述。

      針對(duì)上述局限,本文提出一種基于物理引導(dǎo)的圖像亮度增強(qiáng)神經(jīng)網(wǎng)絡(luò)(Physics?Guided Image Luminance Enhancement Neural Network)(以下簡(jiǎn)稱“物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)”)。首先,通過一個(gè)可解釋的物理主干網(wǎng)絡(luò)將圖像解耦為亮度與色度分量,并利用全局參數(shù)預(yù)測(cè)網(wǎng)絡(luò)在保持原始色度比例的前提下重整亮度分布,構(gòu)建物理上合理的基線;隨后,引入輕量級(jí)殘差子網(wǎng),在物理基線引導(dǎo)下,僅對(duì)局部細(xì)節(jié)與高頻紋理進(jìn)行受控的非線性補(bǔ)償;最后,系統(tǒng)構(gòu)建一組基于物理先驗(yàn)的軟約束損失函數(shù),替代復(fù)雜的偏微分方程求解。本實(shí)驗(yàn)使用的數(shù)據(jù)集來自Kaggle:Tanvirnwu/LoLI?Street;模型源代碼開放在GitHub:PangXingQing/loli?pgnn。

      為驗(yàn)證方法有效性,本文基于LoLI?Street低照度街景數(shù)據(jù)集開展全面實(shí)驗(yàn):通過消融實(shí)驗(yàn)驗(yàn)證物理主干網(wǎng)絡(luò)、軟約束等核心組件的必要性;與TriFuse模型[5]從性能與效率雙維度進(jìn)行對(duì)比;并通過逆光、低照度、廣域梯度三類典型場(chǎng)景的可視化分析,驗(yàn)證模型在偽影抑制、色彩保真與參數(shù)穩(wěn)定性上的優(yōu)勢(shì)。

      實(shí)驗(yàn)結(jié)果表明,該網(wǎng)絡(luò)在像素級(jí)誤差控制與部署效率上實(shí)現(xiàn)顯著提升,能在計(jì)算資源受限條件下,穩(wěn)定輸出曝光合理、色彩自然、細(xì)節(jié)豐富的增強(qiáng)圖像。本研究不僅證實(shí)了可解釋物理模型與數(shù)據(jù)驅(qū)動(dòng)網(wǎng)絡(luò)融合的有效性,更解決了傳統(tǒng)方法與純深度學(xué)習(xí)模型的核心矛盾,為高質(zhì)量影視制作、實(shí)時(shí)交互系統(tǒng)等跨場(chǎng)景應(yīng)用提供了兼具效能與魯棒性的底層視覺增強(qiáng)解決方案。

      2

      相關(guān)研究

      2.1 傳統(tǒng)圖像亮度增強(qiáng)算法

      傳統(tǒng)亮度增強(qiáng)算法主要分為直方圖均衡化、視網(wǎng)膜大腦皮層理論與伽馬映射(Gamma Mapping)3大類,其為現(xiàn)代深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)提供了重要的物理先驗(yàn)方法。

      直方圖均衡化及其變體通過重映射像素灰度分布來擴(kuò)展動(dòng)態(tài)范圍。盡管各類改進(jìn)算法通過分段策略或群體智能優(yōu)化剪切閾值(Clip Limit)有效提升了全局對(duì)比度,但這類統(tǒng)計(jì)學(xué)方法往往忽略了圖像的空間結(jié)構(gòu),容易在平滑區(qū)域引入噪聲或?qū)е戮植窟^增強(qiáng)[6,7]。

      視網(wǎng)膜大腦皮層理論將圖像建模為照明分量與反射分量的乘積,旨在消除不均勻光照以恢復(fù)物體本征顏色。多尺度視網(wǎng)膜大腦皮層理論方法通常引入偏微分方程或變分正則化來約束照明層的平滑性與邊緣保持特性。雖然該類方法在理論上具備嚴(yán)謹(jǐn)性,但求解偏微分方程計(jì)算開銷大,且涉及復(fù)雜的參數(shù)調(diào)節(jié),難以滿足實(shí)時(shí)性需求[8]。

      在工程實(shí)踐中,基于伽馬映射與色彩空間分離的方法因其高效性與穩(wěn)定性而被廣泛采用。其核心思想是將圖像解耦為亮度與色度通道,僅對(duì)亮度執(zhí)行單調(diào)的冪律變換,從而在提升亮度的同時(shí)嚴(yán)格保持原始色度比例。

      本文提出的物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)綜合了上述各方法的優(yōu)點(diǎn),并將其形式化為神經(jīng)網(wǎng)絡(luò)中的物理主干網(wǎng)絡(luò):通過線性化與解耦操作確保色彩空間的獨(dú)立性,利用全局統(tǒng)計(jì)特征預(yù)測(cè)受限的伽馬曲線,從而為后續(xù)的殘差學(xué)習(xí)提供一個(gè)數(shù)值穩(wěn)定、無色偏的物理基線。

      2.2 基于深度神經(jīng)網(wǎng)絡(luò)的圖像增強(qiáng)

      數(shù)據(jù)驅(qū)動(dòng)的深度神經(jīng)網(wǎng)絡(luò)憑借其強(qiáng)大的特征學(xué)習(xí)與映射能力,已成為圖像增強(qiáng)領(lǐng)域的核心支撐技術(shù)。早期基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法有效提取圖像的低層細(xì)節(jié)特征。隨后,以U?Net為代表的編碼器-解碼器(Encoder?Decoder)架構(gòu)通過下采樣擴(kuò)大感受野(Receptive Field),并利用跳躍連接(Skip Connections)融合深層語義與淺層紋理,成為圖像復(fù)原任務(wù)的主流骨干。然而,基于卷積神經(jīng)網(wǎng)絡(luò)的U?Net結(jié)構(gòu)受限于卷積核的局部歸納偏置(Inductive Bias),在捕捉長程依賴(Long?Range Dependency)和處理全局光照不一致性方面存在先天不足[9]。為解決局部性限制,基于自注意力機(jī)制的Transformer架構(gòu)被提出,這類模型通過其全局建模能力,能夠捕捉像素間的長距離關(guān)聯(lián),有效彌補(bǔ)了卷積神經(jīng)網(wǎng)絡(luò)在全局特征提取方面的不足,能夠更準(zhǔn)確地恢復(fù)圖像的整體亮度分布與結(jié)構(gòu)一致性。然而,單一使用Transformer架構(gòu)通常面臨巨大的計(jì)算開銷,且在極低照度下的局部紋理合成上容易出現(xiàn)偽影[10]。

      相比之下,混合網(wǎng)絡(luò)架構(gòu)通過融合多種方法的優(yōu)勢(shì),成為提升圖像亮度解決方案的新研究方向[11—14]。TriFuse模型[5]專門針對(duì)真實(shí)場(chǎng)景中的低光圖像,構(gòu)建了特征提取、條件去噪與細(xì)節(jié)增強(qiáng)的3階段混合架構(gòu)。DarkIR模型[15]則首次實(shí)現(xiàn)了低光照增強(qiáng)、去模糊及去噪的端到端統(tǒng)一處理,采用的非對(duì)稱編碼器-解碼器架構(gòu),通過任務(wù)解耦與區(qū)域分工的理念優(yōu)化全局光照。此外,該模型在輕量化設(shè)計(jì)上表現(xiàn)出色,相比于其他模型,參數(shù)量大幅減少。LYT?Net模型[16]專注于資源受限場(chǎng)景的高效部署,通過色彩空間解耦與輕量化模塊設(shè)計(jì)實(shí)現(xiàn)低光照增強(qiáng)性能的平衡。

      盡管上述代表性方法在不同維度推動(dòng)了低照度增強(qiáng)的性能上限,但也揭示出當(dāng)前研究仍存在的3方面問題:一是全局曝光校正與局部紋理復(fù)原難以兼顧;二是色彩一致性約束不足導(dǎo)致色偏與偽影;三是在追求效果時(shí)往往引入較高的計(jì)算開銷。針對(duì)上述問題,本文提出的物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)在結(jié)構(gòu)上以輕量級(jí)全連接網(wǎng)絡(luò)從整圖統(tǒng)計(jì)特征預(yù)測(cè)可解釋的全局曝光參數(shù),先構(gòu)建物理合理的亮度基線,再以帶跳連的殘差編解碼器對(duì)局部高頻細(xì)節(jié)進(jìn)行受控補(bǔ)償,以減少計(jì)算量與硬件消耗。

      2.3 物理信息神經(jīng)網(wǎng)絡(luò)與物理先驗(yàn)思想

      傳統(tǒng)的深度圖像增強(qiáng)模型主要依賴均方誤差(MSE)或平均絕對(duì)誤差(MAE)等像素級(jí)損失進(jìn)行監(jiān)督訓(xùn)練。然而,純數(shù)據(jù)驅(qū)動(dòng)的損失函數(shù)往往忽略了成像過程的物理規(guī)律,容易導(dǎo)致過擬合、偽影或色彩失真[17]。

      物理信息神經(jīng)網(wǎng)絡(luò)通過將控制偏微分方程及邊界條件作為正則項(xiàng)嵌入損失函數(shù),實(shí)現(xiàn)了在少樣本或無監(jiān)督條件下對(duì)物理場(chǎng)的精確求解,并早已應(yīng)用于聲場(chǎng)重建等領(lǐng)域[18]。近年來,隨著物理先驗(yàn)與深度學(xué)習(xí)融合技術(shù)的不斷發(fā)展,一系列聚焦低照度圖像增強(qiáng)的物理先驗(yàn)架構(gòu)相繼涌現(xiàn),為解決傳統(tǒng)物理信息神經(jīng)網(wǎng)絡(luò)的應(yīng)用局限提供了新思路。RSFNet模型[19]雖最初面向語義分割任務(wù),但其核心設(shè)計(jì)為圖像增強(qiáng)的物理約束提供了重要借鑒,該模型采用非對(duì)稱編碼器(Encoder)學(xué)習(xí)多模態(tài)互補(bǔ)特征,創(chuàng)新的殘差空間融合(RSF)模塊通過層次化特征聚合策略,結(jié)合帶有殘差連接的空間權(quán)重置信門,自適應(yīng)控制跨模態(tài)特征融合過程。LightenDiffusion模型[20]則將物理可解釋性與擴(kuò)散模型(Diffusion Model)的生成能力深度結(jié)合,成為無監(jiān)督低光圖像增強(qiáng)的代表性成果,但該模型依賴復(fù)雜的潛空間分解與擴(kuò)散過程,推理速度較慢,難以滿足實(shí)時(shí)應(yīng)用需求。

      鑒于成像系統(tǒng)的非線性與復(fù)雜性,物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)對(duì)物理信息神經(jīng)網(wǎng)絡(luò)的思想進(jìn)行了領(lǐng)域適配。系統(tǒng)不再求解復(fù)雜的偏微分方程,而是將成像先驗(yàn)轉(zhuǎn)化為一組可計(jì)算的軟約束嵌入損失函數(shù),這些軟約束主要包括:曝光單調(diào)性約束、線性色度保持約束及參數(shù)物理區(qū)間約束等。通過這種方式使神經(jīng)網(wǎng)絡(luò)在不依賴大規(guī)模配對(duì)數(shù)據(jù)的情況下,能夠自適應(yīng)地學(xué)習(xí)到符合物理規(guī)律的增強(qiáng)映射。

      3

      系統(tǒng)設(shè)計(jì)

      3.1 總體架構(gòu)

      物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)由帶有可解釋物理主干的全連接神經(jīng)網(wǎng)絡(luò)與基于U?Net架構(gòu)的殘差網(wǎng)絡(luò)兩部分構(gòu)成,如圖1所示。


      圖1 系統(tǒng)總體架構(gòu)示意圖

      在處理流程上,考慮到伽馬映射帶來的非線性失真,系統(tǒng)首先將輸入的原始圖像映射至線性域并解耦為亮度與色度分量。物理主干網(wǎng)絡(luò)專注于全局曝光校正,其利用輕量級(jí)的全連接網(wǎng)絡(luò)預(yù)測(cè)一組受限參數(shù),僅對(duì)亮度通道進(jìn)行單調(diào)色調(diào)映射,并與保持不變的色度分量重組,進(jìn)而生成圖像的物理基線以便后期進(jìn)行修正補(bǔ)償。這一設(shè)計(jì)確保了在重整圖像亮度動(dòng)態(tài)范圍的同時(shí),嚴(yán)格保持原始圖像的色彩比例。

      為彌補(bǔ)物理模型在細(xì)粒度紋理與高頻信息上的不足,系統(tǒng)引入殘差網(wǎng)絡(luò)。其以原始圖像輸入與物理基線為雙路輸入,通過帶跳連的卷積結(jié)構(gòu)生成幅度受控的局部補(bǔ)償,也就是殘差。最終的預(yù)測(cè)輸出則由物理基線與殘差融合而成。

      在模型優(yōu)化過程中,不再依賴復(fù)雜的偏微分方程求解,轉(zhuǎn)而采用將一組帶加權(quán)的軟約束條件直接融入損失函數(shù)的策略。這些軟約束主要包括:曝光區(qū)間的合理性、色彩或白平衡的線性保持、參數(shù)的物理范圍限制等。這一策略使神經(jīng)網(wǎng)絡(luò)在端到端的訓(xùn)練中,能夠自適應(yīng)地平衡亮度增強(qiáng)、色彩還原與細(xì)節(jié)恢復(fù)等多種圖像屬性。

      3.2 物理主干網(wǎng)絡(luò)設(shè)計(jì)

      物理主干網(wǎng)絡(luò)的核心目標(biāo)是在保持原始線性色度比例不變的前提下,通過單調(diào)、可控且可解釋的方式重整亮度分布。如圖2所示,該過程主要包含3個(gè)階段,即線性解耦、參數(shù)預(yù)測(cè)與物理映射。


      圖2 物理主干網(wǎng)絡(luò)流程示意圖

      首先,系統(tǒng)將任意顏色空間的輸入圖像映射至線性顏色空間,并基于標(biāo)準(zhǔn)亮度加權(quán)系數(shù)提取線性亮度。為實(shí)現(xiàn)色彩保真,系統(tǒng)進(jìn)一步計(jì)算逐像素的色度分量,并在計(jì)算過程中引入數(shù)值穩(wěn)定常數(shù)。色度分量在后續(xù)流程中保持不變,僅作為色彩比例的參考,從而確保亮度調(diào)整不會(huì)引發(fā)色偏。

      隨后進(jìn)入?yún)?shù)預(yù)測(cè)階段。系統(tǒng)對(duì)處于線性顏色空間的圖像執(zhí)行全局平均池化(Global Average Pooling),提取全圖的顏色與亮度統(tǒng)計(jì)特征向量。該向量被送入一個(gè)輕量級(jí)的全連接神經(jīng)網(wǎng)絡(luò),并預(yù)測(cè)出與亮度計(jì)算相關(guān)的兩個(gè)關(guān)鍵物理控制參數(shù):全局伽馬指數(shù)(冪律指數(shù))與增益系數(shù)。為保證輸出曲線符合物理規(guī)律,網(wǎng)絡(luò)末端采用非線性激活函數(shù)與仿射變換,嚴(yán)格將全局伽馬指數(shù)與增益系數(shù)約束在預(yù)設(shè)的合理曝光區(qū)間內(nèi),并通過額外的懲罰項(xiàng)防止參數(shù)越界。

      最后,系統(tǒng)在亮度域以全局伽馬指數(shù)與增益系數(shù)作為參數(shù)執(zhí)行單調(diào)冪律映射,獲得增強(qiáng)亮度,該亮度與線性色度分量重組得到增強(qiáng)后的線性基線。該基線通過非線性變換映射回原顏色空間后,最終得到物理基線。該流程確保了增強(qiáng)結(jié)果在動(dòng)態(tài)范圍擴(kuò)展的同時(shí),嚴(yán)格遵循傳統(tǒng)成像管線的物理一致性。

      為確保物理主干網(wǎng)絡(luò)遵循單調(diào)可控與數(shù)值穩(wěn)定的原則,系統(tǒng)在訓(xùn)練過程中對(duì)關(guān)鍵超參數(shù)施加了明確的物理約束。經(jīng)過多次調(diào)試后,各參數(shù)的取值范圍及作用設(shè)定如下。

      (1)映射曲線控制。系統(tǒng)將全局伽馬指數(shù)限制在[0.45,1.10]區(qū)間內(nèi),以平衡暗部提升與高光壓制;增益系數(shù)限制在[0.80,1.70]區(qū)間,用于控制整體亮度的線性縮放幅度。

      (2)數(shù)值穩(wěn)定常數(shù)。為防止在提取顏色信息時(shí)出現(xiàn)計(jì)算錯(cuò)誤(例如在極暗區(qū)域亮度接近于零導(dǎo)致除法失效),系統(tǒng)設(shè)定亮度映射的最小下限為10-6;同時(shí),在計(jì)算顏色與亮度的比值時(shí),向分母添加10-3作為穩(wěn)定項(xiàng),這不僅避免了除零風(fēng)險(xiǎn),還能有效抑制暗部噪聲被錯(cuò)誤放大。

      (3)邊界保護(hù)。設(shè)置顏色與亮度的比值上限約為2.0,以防止像素出現(xiàn)極端的顏色溢出;將細(xì)化殘差的縮放系數(shù)設(shè)定為(0.00,1.00]區(qū)間,嚴(yán)格限制殘差分支的調(diào)整幅度,確保物理主干網(wǎng)絡(luò)起主導(dǎo)作用;此外,引入數(shù)值為0.3的軟緩沖區(qū)間,用于在參數(shù)接近邊界時(shí)計(jì)算漸進(jìn)的懲罰損失。

      3.3 殘差網(wǎng)絡(luò)模型設(shè)計(jì)

      為在物理基線之上實(shí)現(xiàn)細(xì)粒度的紋理恢復(fù)與局部對(duì)比度微調(diào),同時(shí)不破壞已確立的全局曝光與色彩結(jié)構(gòu),系統(tǒng)構(gòu)建了一個(gè)受約束的條件殘差網(wǎng)絡(luò)。如圖3所示,其采用經(jīng)典的U?Net架構(gòu),通過多尺度上下文聚合與跳躍連接機(jī)制,在物理合理性與感知質(zhì)量間建立平衡。


      圖3 殘差網(wǎng)絡(luò)流程示意圖

      網(wǎng)絡(luò)采用雙路通道拼接(Channel?wise Concatenation)策略構(gòu)建四維輸入張量。這4個(gè)維度分別表示:訓(xùn)練批大?。˙atch Size)、原始圖像與物理基線的所有屬性疊加通道數(shù)量、圖像的高度、圖像的寬度,其中屬性通道的具體數(shù)值為6(兩組顏色空間疊加)。這種設(shè)計(jì)使網(wǎng)絡(luò)不僅能感知原始的紋理細(xì)節(jié),還能直接獲取已經(jīng)過物理校正的曝光參考。對(duì)于每個(gè)像素位置,網(wǎng)絡(luò)能通過比較原始信號(hào)與物理基線的差異,學(xué)習(xí)出哪些區(qū)域依然欠曝光或存在偽影,從而將注意力集中在需要修正的局部,而非對(duì)全圖進(jìn)行盲目重構(gòu)。

      編碼器包含4個(gè)下采樣階段。輸入首先經(jīng)過雙重卷積(DoubleConv)模塊,將屬性特征通道從6通道擴(kuò)展至32通道,在保持輕量化的同時(shí)提取淺層紋理特征。隨后,通過最大池化層(Max Pooling Layer)逐步降低空間分辨率并倍增通道數(shù),以擴(kuò)大感受野,使深層特征能夠捕獲更大范圍的光照分布與結(jié)構(gòu)語義。解碼器(Decoder)與之對(duì)稱,利用轉(zhuǎn)置卷積進(jìn)行上采樣,并通過跳躍連接融合編碼器同層的高頻細(xì)節(jié),有效解決了深層網(wǎng)絡(luò)容易丟失邊緣信息的問題。

      在解碼器末端,系統(tǒng)采用逐點(diǎn)卷積(Pointwise Convolution)層將高維特征投影回3通道顏色空間。為貫徹微調(diào)的設(shè)計(jì)理念,輸出層并未直接生成最終圖像,而是生成一個(gè)幅度受限的殘差。具體而言,網(wǎng)絡(luò)輸出經(jīng)過非線性激活函數(shù)壓縮至(-1.00,1.00)區(qū)間,并乘以一個(gè)前文提到的可學(xué)習(xí)或預(yù)設(shè)的細(xì)化殘差縮放系數(shù)。這一機(jī)制為殘差施加了明確的物理上界,強(qiáng)制網(wǎng)絡(luò)僅在必要區(qū)域生成非零響應(yīng),而在曝光已合理的區(qū)域輸出近似為零。

      最終的增強(qiáng)輸出圖像由物理基線與殘差疊加而成。這種結(jié)構(gòu),既利用了U?Net架構(gòu)強(qiáng)大的細(xì)節(jié)生成能力實(shí)現(xiàn)了抑噪與銳化,又通過幅度約束避免了常見的神經(jīng)網(wǎng)絡(luò)偽影(如光暈、色偏),確保了增強(qiáng)結(jié)果的自然與穩(wěn)定。

      3.4 損失函數(shù)與優(yōu)化目標(biāo)

      物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)的核心優(yōu)勢(shì)在于摒棄了物理信息神經(jīng)網(wǎng)絡(luò)方法中高計(jì)算開銷的偏微分方程殘差求解,轉(zhuǎn)而通過構(gòu)建一組由物理約束結(jié)合感知一致性的復(fù)合損失函數(shù)來驅(qū)動(dòng)端到端訓(xùn)練,同時(shí)實(shí)現(xiàn)曝光校正、色彩保真與紋理復(fù)原??們?yōu)化目標(biāo)定義為以下各子項(xiàng)的加權(quán)和。

      3.4.1 重建與一致性損失

      (1)像素級(jí)重建:衡量預(yù)測(cè)輸出與參考圖像間的均方誤差,確?;A(chǔ)內(nèi)容的準(zhǔn)確性。

      (2)亮度一致性:強(qiáng)制輸出圖像的亮度分布貼合物理主干網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果,防止殘差網(wǎng)絡(luò)產(chǎn)生過大的亮度漂移,保證整體曝光的物理合理性。

      3.4.2 色彩正則化損失

      (1)色度保持:約束增強(qiáng)后的色度比例與原始線性色度保持一致,最大程度減少因亮度調(diào)整引發(fā)的飽和度失真。

      (2)全局色彩均衡:基于灰度世界假設(shè)(Gray World Assumption),校正全局白平衡偏差。

      (3)特定通道約束:包含中性區(qū)域保真與綠色抑制,前者保護(hù)非彩色區(qū)域(如白墻、水泥地)不發(fā)生色偏,后者專門抑制低照度增強(qiáng)中常見的綠色通道偽影。

      3.4.3 物理先驗(yàn)約束

      物理先驗(yàn)約束專門針對(duì)物理主干網(wǎng)絡(luò)中的參數(shù)預(yù)測(cè)模塊,通過懲罰項(xiàng)強(qiáng)制全局伽馬指數(shù)與增益系數(shù)始終落在預(yù)設(shè)的物理可行區(qū)間內(nèi)(即前文所述的單調(diào)區(qū)間),避免網(wǎng)絡(luò)為擬合數(shù)據(jù)而生成退化的色調(diào)曲線。

      在總損失中引入權(quán)重系數(shù)至關(guān)重要。由于上述各子項(xiàng)衡量的是不同維度的物理量(如像素值差、參數(shù)范圍、統(tǒng)計(jì)分布),其在數(shù)值量綱上存在顯著差異。若簡(jiǎn)單疊加,量級(jí)較大的項(xiàng)將主導(dǎo)梯度下降(Gradient Dominance)的方向,導(dǎo)致細(xì)節(jié)恢復(fù)或微小的色彩校正被忽略。此外,不同約束在訓(xùn)練階段的收斂需求并不一致:曝光相關(guān)項(xiàng)宜在早期快速收斂以確立全局結(jié)構(gòu),而紋理與色度的微調(diào)更適合在中后期起效。合理的加權(quán)策略能夠平衡各任務(wù)的梯度貢獻(xiàn)。

      3.5 訓(xùn)練策略優(yōu)化

      為確保模型在小樣本與弱監(jiān)督條件下能夠穩(wěn)定收斂,并有效抑制偏色與過增強(qiáng)現(xiàn)象,物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)引入了針對(duì)物理主干網(wǎng)絡(luò)與殘差網(wǎng)絡(luò)協(xié)同架構(gòu)的特定訓(xùn)練策略。

      (1) 參數(shù)預(yù)測(cè)頭的中心化、初始化與幾何先驗(yàn)

      為防止訓(xùn)練初期出現(xiàn)極端曝光預(yù)測(cè)導(dǎo)致的梯度不穩(wěn)定,物理主干網(wǎng)絡(luò)的參數(shù)預(yù)測(cè)頭采用中心化初始化策略:輸出層的權(quán)重與偏置初始化為零,使初始的全局伽馬指數(shù)與增益系數(shù)位于物理可行區(qū)間的中點(diǎn)。該策略有效規(guī)避了初始階段的劇烈震蕩。此外,結(jié)合前述的參數(shù)先驗(yàn)損失,系統(tǒng)對(duì)越界參數(shù)施加帶緩沖的二次軟懲罰,迫使網(wǎng)絡(luò)在保持單調(diào)性與物理可解釋性的約束下搜索最優(yōu)解。

      (2) 有界殘差學(xué)習(xí)與主干主導(dǎo)機(jī)制

      為貫徹物理為主,數(shù)據(jù)為輔的設(shè)計(jì)理念,殘差網(wǎng)絡(luò)的輸出被嚴(yán)格限制在特定幅度內(nèi)。訓(xùn)練過程中,殘差首先經(jīng)過非線性激活壓縮至單位區(qū)間,隨后通過可學(xué)習(xí)或預(yù)設(shè)的縮放因子映射至實(shí)際作用域,最終融合在非線性色彩空間執(zhí)行截?cái)啵–lipping)操作。這一有界性約束(Boundedness Constraint)確保了由物理主干網(wǎng)絡(luò)確立的全局亮度與色度關(guān)系始終占據(jù)主導(dǎo)地位,殘差網(wǎng)絡(luò)僅被允許在極小的數(shù)值空間內(nèi)進(jìn)行局部紋理補(bǔ)償,從而從根源上降低了過度銳化、光暈效應(yīng)及通道漂移的風(fēng)險(xiǎn)。

      (3) 曝光鎖定與精細(xì)化微調(diào)

      訓(xùn)練流程采用兩階段策略。在主訓(xùn)練階段完成后,系統(tǒng)進(jìn)入微調(diào)(Fine?Tuning)階段,學(xué)習(xí)率大幅衰減,同時(shí)保持全量參數(shù)更新與完整的損失函數(shù)約束。由于此時(shí)全局伽馬指數(shù)與增益系數(shù)已受到先驗(yàn)項(xiàng)的強(qiáng)力錨定,微調(diào)階段主要驅(qū)動(dòng)網(wǎng)絡(luò)在局部極小值附近進(jìn)一步搜索,專注于高頻紋理的復(fù)原與微妙色彩偏差的修正,實(shí)現(xiàn)鎖定全局曝光、收斂局部細(xì)節(jié)的優(yōu)化目標(biāo)。

      4

      實(shí)驗(yàn)與分析

      4.1 實(shí)驗(yàn)設(shè)置

      實(shí)驗(yàn)基于LoLI?Street低照度街景數(shù)據(jù)集構(gòu)建。數(shù)據(jù)集被劃分為訓(xùn)練集(Train)與驗(yàn)證集(Val),并采用文件名匹配策略構(gòu)建成對(duì)(Paired)樣本。所有圖像在預(yù)處理階段統(tǒng)一將寬高都調(diào)整為128像素,并歸一化至非線性顏色空間,以適應(yīng)網(wǎng)絡(luò)輸入需求。

      模型基于PyTorch框架實(shí)現(xiàn),在單張16 GB顯存的英偉達(dá)(NVIDIA)GPU上進(jìn)行訓(xùn)練,批次大小設(shè)為64。訓(xùn)練過程采用兩階段優(yōu)化策略。

      主訓(xùn)練階段(Coarse Stage)對(duì)數(shù)據(jù)進(jìn)行200輪(Epoch)訓(xùn)練:采用數(shù)值為5×10-4的較高學(xué)習(xí)率,旨在快速確定由物理主干網(wǎng)絡(luò)主導(dǎo)的全局曝光曲線,并促使殘差子網(wǎng)完成結(jié)構(gòu)性的對(duì)比度恢復(fù)。引入早停機(jī)制,當(dāng)驗(yàn)證集的損失函數(shù)誤差值連續(xù)5輪訓(xùn)練無顯著下降時(shí)自動(dòng)終止,以防止過擬合。

      微調(diào)階段對(duì)數(shù)據(jù)進(jìn)行50輪訓(xùn)練:學(xué)習(xí)率衰減至1×10-4,在鎖定全局曝光特性的前提下,集中優(yōu)化色彩一致性并消除局部偽影。同時(shí)也引入了與主訓(xùn)練階段相同的早停機(jī)制。

      4.2 定量評(píng)估與消融研究

      為驗(yàn)證物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)各組件的有效性,本研究在驗(yàn)證集上對(duì)4種模型配置進(jìn)行了對(duì)比消融實(shí)驗(yàn),分別是:只包含殘差網(wǎng)絡(luò)并以此作為其他配置對(duì)比基線的配置、只包含殘差網(wǎng)絡(luò)與作用于損失函數(shù)的軟約束的配置、只包含殘差網(wǎng)絡(luò)與物理主干網(wǎng)絡(luò)的配置以及包含前述所有內(nèi)容的完整物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)。

      表1展示了各模型在重建精度〔峰值信噪比(PSNR)、結(jié)構(gòu)相似性(SSIM)、歸一化后的平均絕對(duì)誤差(MAE)〕與感知質(zhì)量〔學(xué)習(xí)感知圖像塊相似度(LPIPS)、自然圖像質(zhì)量評(píng)價(jià)(NIQE)〕上的綜合表現(xiàn)。對(duì)比可知,物理主干網(wǎng)絡(luò)的引入帶來了性能的質(zhì)變,PSNR的值平均提升約 4~11 dB,同時(shí)SSIM的值則顯著躍升。這證實(shí)了在線性空間進(jìn)行“亮度-色度分解”與“全局色調(diào)映射”是解決低照度問題的關(guān)鍵,該方式為殘差網(wǎng)絡(luò)提供了一個(gè)合理的曝光起點(diǎn),極大降低了擬合難度。雖然在物理殘差的基礎(chǔ)上引入物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)的軟約束后各數(shù)據(jù)提升有限,但在完整的物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)中,這些軟約束與模型其他部分呈現(xiàn)出顯著的協(xié)同效應(yīng)。這些物理一致性約束,進(jìn)一步抑制了極端樣本中的過曝與色偏,使完整的物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)在所有指標(biāo)上均取得最優(yōu)值。

      表1 LoLI?Street Val 各模型配置平均指標(biāo)


      從PSNR?SSIM散點(diǎn)分布(圖 4)可看出,物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)的樣本點(diǎn)高度集中于坐標(biāo)系右上方(高精度、高結(jié)構(gòu)相似性區(qū)域),而缺乏物理主干網(wǎng)絡(luò)的模型則呈現(xiàn)明顯的離散分布。這表明物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)不僅平均性能優(yōu)異,且對(duì)多樣化的街景樣本具有更強(qiáng)的魯棒性,有效克服了純數(shù)據(jù)驅(qū)動(dòng)方法的不穩(wěn)定缺陷。


      圖4 PSNR?SSIM 散點(diǎn)圖(Val中隨機(jī)200個(gè)樣本)

      4.3 TriFuse模型對(duì)比實(shí)驗(yàn)

      對(duì)比實(shí)驗(yàn)選取低照度圖像增強(qiáng)領(lǐng)域的當(dāng)前最優(yōu)水平(SOTA)模型 TriFuse進(jìn)行對(duì)比。TriFuse是LoLI?Street數(shù)據(jù)集的創(chuàng)建者,并在該數(shù)據(jù)集上表現(xiàn)出優(yōu)秀性能。評(píng)估僅保留核心項(xiàng)性能指標(biāo),并引入效率指標(biāo):參數(shù)量(Params)、浮點(diǎn)運(yùn)算次數(shù)(FLOPs)與平均推理時(shí)間(AIT);實(shí)驗(yàn)環(huán)境統(tǒng)一基于PyTorch框架,單張NVIDIA GPU推理,圖像輸入尺寸統(tǒng)一為128像素,批次大小為64,實(shí)驗(yàn)結(jié)果如表2所示。

      表2 物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)模型與TriFuse的定量性能對(duì)比表


      客觀性能指標(biāo)對(duì)比方面,TriFuse在通用視覺質(zhì)量指標(biāo)上呈現(xiàn)明顯優(yōu)勢(shì),這一差異源于 TriFuse 通過Transformer的長距離依賴建模與擴(kuò)散模型的生成式去噪能力,能夠更精準(zhǔn)還原圖像全局光照分布與結(jié)構(gòu)一致性,在主觀視覺感知的自然度與細(xì)節(jié)豐富度上表現(xiàn)更優(yōu);而物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)則在像素級(jí)誤差控制上實(shí)現(xiàn)了突破性優(yōu)勢(shì),其平均絕對(duì)誤差僅為TriFuse的1/4,這一核心優(yōu)勢(shì)得益于本文模型的物理引導(dǎo)機(jī)制,從底層限制了像素預(yù)測(cè)的偏差范圍。

      效率指標(biāo)對(duì)比上,物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)展現(xiàn)出優(yōu)秀的部署能力與架構(gòu)合理性:盡管參數(shù)量高于TriFuse,但通過輕量化架構(gòu)設(shè)計(jì),其浮點(diǎn)運(yùn)算次數(shù)僅為TriFuse的5%,平均推理時(shí)間僅為TriFuse的10%,有效規(guī)避了TriFuse帶來的高額計(jì)算開銷,更適配低算力設(shè)備與實(shí)時(shí)交互場(chǎng)景。

      4.4 定性分析與可視化對(duì)比

      為直觀評(píng)估不同配置下的圖像增強(qiáng)質(zhì)量,圖5展示了3組典型場(chǎng)景的視覺對(duì)比。這些樣本清晰地揭示了各消融模塊在偽影抑制與色彩復(fù)原上的行為差異。


      圖5 各消融模型可視化對(duì)比

      (1)逆光場(chǎng)景下的色彩保真與偽影抑制

      如圖5柴犬樣例所示,在強(qiáng)逆光的高動(dòng)態(tài)范圍(HDR)場(chǎng)景中,無論是只使用殘差網(wǎng)絡(luò),還是在此基礎(chǔ)上引入軟約束后的模型配置都難以兼顧亮度提升與色彩還原,導(dǎo)致天空區(qū)域出現(xiàn)網(wǎng)格狀偽影,且主體毛發(fā)產(chǎn)生不自然的紅白偏色。實(shí)驗(yàn)表明,無軟約束配置的模型極易在數(shù)值邊緣區(qū)域(如極暗或極亮處)發(fā)生退化,導(dǎo)致只包含殘差網(wǎng)絡(luò)與物理主干網(wǎng)絡(luò)的模型在陰影處產(chǎn)生嚴(yán)重的綠色斑塊與數(shù)值截?cái)唷O噍^之下,物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)通過引入物理一致性軟約束,有效規(guī)范了全局參數(shù)的搜索空間,不僅消除了綠色偽影與色調(diào)斷層,更精準(zhǔn)還原了柴犬的棕黃毛色,在保留夕陽暖調(diào)氛圍的同時(shí)實(shí)現(xiàn)了天空梯度的平滑過渡。

      (2)低照度下的紋理恢復(fù)與信噪比平衡

      如圖5黑貓樣例所示,針對(duì)黑色物體的紋理恢復(fù)主要考驗(yàn)?zāi)P蛯?duì)噪聲與有效信號(hào)的解耦能力。在該場(chǎng)景中,僅包含殘差網(wǎng)絡(luò)與物理主干網(wǎng)絡(luò)的模型表現(xiàn)出過擬合傾向,過度拉伸了對(duì)比度曲線,導(dǎo)致背景高光溢出的過曝現(xiàn)象且主體面部生硬。而僅包含殘差網(wǎng)絡(luò)的模型則傾向于將黑色毛發(fā)的高頻紋理錯(cuò)誤地識(shí)別并增強(qiáng)為灰白色噪點(diǎn)。物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)展現(xiàn)了最優(yōu)的信噪比平衡策略,其利用物理先驗(yàn)知識(shí)構(gòu)建了更柔和的增強(qiáng)曲線,在避免背景過曝的前提下,成功保留了黑色毛發(fā)的微細(xì)紋理與眼部的高光神態(tài),實(shí)現(xiàn)了視覺感知的自然化。

      (3)廣域梯度場(chǎng)景的參數(shù)穩(wěn)定性分析

      如圖5校園日落樣例所示,在天空這類大面積漸變區(qū)域與深邃陰影并存的復(fù)雜場(chǎng)景中,參數(shù)估計(jì)的穩(wěn)定性至關(guān)重要。僅包含殘差網(wǎng)絡(luò)的模型在此處暴露了明顯缺陷,該模型因上采樣或卷積操作在平滑區(qū)域引入了帶狀偽影(Banding Artifacts),在引入物理主干網(wǎng)絡(luò)后,模型則因參數(shù)估計(jì)溢出,在畫面底部產(chǎn)生了顯著的黑斑與色彩崩塌。物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)憑借物理一致性約束有效抑制了這種參數(shù)漂移現(xiàn)象,確保了全局光照估計(jì)的連續(xù)性。最終結(jié)果中,天空完美呈現(xiàn)了“藍(lán)色時(shí)刻”的純凈漸變,且地面暗部細(xì)節(jié)層次分明,驗(yàn)證了物理約束在防止極端參數(shù)預(yù)測(cè)方面的魯棒性。

      可視化結(jié)果證明了本文核心觀點(diǎn)的正確性:?jiǎn)为?dú)的物理主干網(wǎng)絡(luò)雖然能提供強(qiáng)有力的曝光引導(dǎo),但缺乏軟約束時(shí)極易產(chǎn)生數(shù)值不穩(wěn)定性(如綠色或黑色斑塊);只有物理引導(dǎo)神經(jīng)網(wǎng)絡(luò)通過物理一致性軟約束施加明確的參數(shù)先驗(yàn)與平滑性約束,才能在利用物理先驗(yàn)提升亮度的同時(shí),確保結(jié)果的魯棒性與視覺自然度。

      5

      結(jié)論與展望

      本文提出一種基于物理引導(dǎo)的圖像亮度增強(qiáng)網(wǎng)絡(luò),采用物理主干網(wǎng)絡(luò)結(jié)合殘差網(wǎng)絡(luò)微調(diào)的混合架構(gòu),在小樣本與算力受限條件下有效解決了低照度增強(qiáng)中的物理一致性缺失與色彩失真問題。實(shí)驗(yàn)結(jié)果表明,該網(wǎng)絡(luò)在測(cè)試數(shù)據(jù)集上表現(xiàn)出良好的像素級(jí)誤差控制能力與部署效率,能夠在計(jì)算資源受限條件下穩(wěn)定輸出曝光合理、色彩自然、細(xì)節(jié)豐富的增強(qiáng)圖像。研究證實(shí),將可解釋物理模型與數(shù)據(jù)驅(qū)動(dòng)網(wǎng)絡(luò)相融合的技術(shù)思路,可為圖像亮度增強(qiáng)提供切實(shí)可行的新路徑,同時(shí)為高質(zhì)量影視制作、實(shí)時(shí)交互畫面處理等相關(guān)場(chǎng)景應(yīng)用奠定技術(shù)基礎(chǔ)。

      展望未來,本研究提出的技術(shù)方案在影視行業(yè)具備廣闊且深入的應(yīng)用前景。在專業(yè)制作場(chǎng)景中,模型可適配影視后期調(diào)色與視覺特效合成需求,針對(duì)低照度夜景、強(qiáng)逆光等復(fù)雜光照拍攝素材,實(shí)現(xiàn)亮度與細(xì)節(jié)的精準(zhǔn)優(yōu)化,同時(shí)抑制色偏與偽影,顯著降低逐幀修復(fù)的人工成本;對(duì)于經(jīng)典影視的高清化重制,該方案能夠在提升畫面亮度、還原暗部細(xì)節(jié)的同時(shí),較好保留原始膠片質(zhì)感與色彩基調(diào),助力影視文化遺產(chǎn)的數(shù)字化傳承。在前沿制作領(lǐng)域,其輕量化推理優(yōu)勢(shì)可滿足虛擬攝影棚、高幀率虛擬攝制的實(shí)時(shí)處理需求,通過校準(zhǔn)虛擬場(chǎng)景與實(shí)拍前景的光照匹配度,減少光影失真問題,為虛擬與真實(shí)畫面的無縫融合提供技術(shù)保障。隨著影視行業(yè)向沉浸式內(nèi)容、多模態(tài)交互方向發(fā)展,該技術(shù)可進(jìn)一步與虛擬現(xiàn)實(shí)(VR)或增強(qiáng)現(xiàn)實(shí)(AR)影像等新媒介結(jié)合,通過動(dòng)態(tài)光照適配與像素級(jí)光影模擬,提升沉浸式內(nèi)容的視覺可信度;其輕量化架構(gòu)亦可為影視創(chuàng)作工具的普適化發(fā)展提供支持,降低高品質(zhì)影像制作的技術(shù)門檻,進(jìn)而推動(dòng)全民影視創(chuàng)作生態(tài)的多元化發(fā)展,為影視行業(yè)的技術(shù)迭代與形態(tài)創(chuàng)新注入持續(xù)動(dòng)力。

      參考文獻(xiàn)

      (向下滑動(dòng)閱讀)

      [1] 丁暢, 董麗麗, 許文海. “直方圖”均衡化圖像增強(qiáng)技術(shù)研究綜述[J]. 計(jì)算機(jī)工程與應(yīng)用, 2017, 53(23): 12?17.

      [2] 帥姣妍, 顧曉娟. 曝光校正算法及其在短視頻中的應(yīng)用研究[J]. 現(xiàn)代電影技術(shù), 2022(11): 31?39.

      [3] TRAN L A, TRAN C N, NGUYEN N L, et al. Low?light enhancement via encoder?decoder network with illumination guidance[EB/OL]. (2025?07?04)[2025?12?28]. https://arxiv.org/abs/2507.13360.

      [4] KARAKONSTANTIS X, CAVIEDES?NOZAL D, RICHARD A, et al. Room impulse response reconstruction with physics?informed deep learning[EB/OL]. (2024?01?02)[2025?12?28]. https://arxiv.org/abs/2401.01206.

      [5] ISLAM M T, ALAM I, WOO S S, et al. LoLI?Street: Benchmarking Low?Light Image Enhancement and Beyond [EB/OL]. (2024?10?13)[2025?12?28]. https://doi.org/10.48550/arXiv.2410.09831.

      [6] PATEL O, MARAVI Y P S, SHARMA S. A comparative study of histogram equalization based image enhancement techniques for brightness preservation and contrast enhancement[EB/OL]. (2013?11?16)[2025?12?28]. https://arxiv.org/abs/1311.4033.

      [7] AEDLA R, DWARAKISH G S, REDDY D V. A comparative analysis of histogram equalization based techniques for contrast enhancement and brightness preserving[J/OL]. International Journal of Signal Processing, Image Processing and Pattern Recognition, 2013, 6(5): 353?366[2025?12?28]. http://dx.doi.org/10.14257/ijsip.2013.6.5.31.

      [8] 楊崇智. 基于偏微分方程改進(jìn)模型的聲吶圖像增強(qiáng)方法研究[D]. 哈爾濱: 哈爾濱工程大學(xué), 2018.

      [9] WANG T, ZHANG K, SHEN T, et al. Ultra?high?definition low?light image enhancement: a benchmark and transformer?based method[EB/OL]. (2022?12?22)[2025?12?28]. https://arxiv.org/abs/2212.11548.

      [10] LORE K G, AKINTAYO A, SARKAR S. LLNet: a deep autoencoder approach to natural low?light image enhancement[EB/OL]. (2015?11?12)[2025?12?28]. https://arxiv.org/abs/1511.03995.

      [11] WANG Z, CUN X, BAO J, et al. Uformer: a general u?shaped transformer for image restoration[EB/OL]. (2021?11?25)[2025?12?28]. https://arxiv.org/abs/2106.03106.

      [12] YUAN N, ZHAO X, SUN B, et al. Low?light image enhancement by combining transformer and convolutional neural network[J/OL]. Mathematics, 2023, 11(7): 1657[2025?12?28]. https://doi.org/10.3390/math11071657.

      [13] HE M, WANG R, ZHANG M, et al. SwinLightGAN: a study of low?light image enhancement algorithms using depth residuals and transformer techniques[J/OL]. Scientific Reports, 2025, 15: 12151[2025?12?28]. https://doi.org/10.1038/s41598-025-95329-8.

      [14] BI C, QIAN W, CAO J, et al. LightingFormer: transformer?CNN hybrid network for low?light image enhancement[J].Computer & Graphics, 2024,124:104089.

      [15] FEIJOO D, BENITO J C, GARCIA A, et al. DarkIR: Robust Low?Light Image Restoration [EB/OL]. (2024?12?18)[2025?12?28]. https://doi.org/10.48550/arXiv.2412.13443.

      [16] BRATEANU A, BALMEZ R, AVRAM A, et al. LYT?NET: Lightweight YUV Transformer?based Network for Low?light Image Enhancement [EB/OL]. (2024?01?26)[2025?12?28]. https://doi.org/10.48550/arXiv.2401.15204.

      [17] LIANG D, XU Z, LI L, et al. PIE: physics?inspired low?light enhancement[EB/OL]. (2024?04?06)[2025?12?28]. https://arxiv.org/abs/2404.04586.

      [18] PEZZOLI M, ANTONACCI F, SARTI A. Implicit neural representation with physics?informed neural networks for the reconstruction of the early part of room impulse responses[EB/OL]. (2023?06?20)[2025?12?28]. https://arxiv.org/abs/2306.11509.

      [19] SAINI S, NARAYANAN P J. Specularity Factorization for Low?Light Enhancement [EB/OL]. (2024?04?02)[2025?12?28]. https://doi.org/10.48550/arXiv.2404.01998.

      [20] JIANG H, LUO A, LIU X H, et al. LightenDiffusion: Unsupervised Low?Light Image Enhancement with Latent?Retinex Diffusion Models [EB/OL]. (2024?07?12)[2025?12?28]. https://doi.org/10.48550/arXiv.2407.08939.

      劉達(dá)等:智能時(shí)代電影科技發(fā)展演進(jìn)與虛擬現(xiàn)實(shí)電影創(chuàng)新提質(zhì)研究

      王慧明等:6G網(wǎng)絡(luò)賦能沉浸式多媒體與未來電影:從關(guān)鍵能力到應(yīng)用落地

      期刊導(dǎo)讀 |《現(xiàn)代電影技術(shù)》2026年第1期


      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      電影技術(shù)微刊 incentive-icons
      電影技術(shù)微刊
      電影技術(shù)微刊
      656文章數(shù) 209關(guān)注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節(jié) 山水饋贈(zèng)里的“詩與遠(yuǎn)方

      無障礙瀏覽 進(jìn)入關(guān)懷版