論文原文地址:https://arxiv.org/abs/2104.10729v1
github:https://github.com/Li-Chongyi/Lighting-the-Darkness-in-the-Deep-Learning-Era-Open
百度云(word版翻譯及原文pdf):https://pan.baidu.com/s/1zJ7tU-GpT7O3FYvSN-_7ZA?pwd=gzrr 密碼:gzrr
Lighting the Darkness in the Deep Learning Era
Abstract
低光圖像增強 (LLIE)旨在提高在照明較差的環(huán)境中捕獲的圖像的感知或可解釋性。該領(lǐng)域的最新進展以基于深度學(xué)習(xí)的解決方案為主,其中采用了許多學(xué)習(xí)策略、網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)、訓(xùn)練數(shù)據(jù)等。在本文中,我們提供了一個全面的調(diào)研,涵蓋從算法分類到未解決的開放問題的各個方面。為了檢驗現(xiàn)有方法的泛化性,我們提出了一個大規(guī)模的低光圖像和視頻數(shù)據(jù)集,其中圖像和視頻是由不同的手機相機在不同的光照條件下拍攝的。此外,我們首次提供了一個統(tǒng)一的在線平臺,涵蓋了許多流行的 LLIE 方法,其結(jié)果可以通過用戶友好的 Web 界面生成。除了在公開可用的數(shù)據(jù)集和我們提出的數(shù)據(jù)集上對現(xiàn)有方法進行定性和定量評估外,我們還驗證了它們在黑暗中人臉檢測的性能。本研究中的數(shù)據(jù)集和在線平臺可以作為未來研究的參考來源,促進該研究領(lǐng)域的發(fā)展。本文提出的平臺和收集的方法、數(shù)據(jù)集和評估指標(biāo)是公開的,并將定期更新在https://github.com/Li-Chongyi/Lighting-the-Darkness-in-the-Deep-Learning-Era-Open。我們將發(fā)布我們的低光圖像和視頻數(shù)據(jù)集。
1 INTRODUCTION
由于不可避免的環(huán)境和/或技術(shù)限制(例如照明不足和曝光時間有限),圖像通常在次優(yōu)照明條件(sub-optimallighting condition)下拍攝,受到背光、非均勻照明和弱照明的影響。此類圖像的美學(xué)質(zhì)量受損,并且造成諸如目標(biāo)跟蹤、識別和檢測等高級任務(wù)信息的不理想的傳輸。圖 1 展示了由次優(yōu)照明條件引起的退化的一些示例。
弱光增強是圖像處理的基本任務(wù)之一。它在不同領(lǐng)域有廣泛的應(yīng)用,包括視覺監(jiān)控、自動駕駛和計算攝影。尤其是智能手機攝影已變得非常常見。受限于相機光圈的大小、實時處理的要求以及內(nèi)存的限制,在昏暗的環(huán)境中使用智能手機的相機拍照尤其具有挑戰(zhàn)性。在此類應(yīng)用中增強低光圖像和視頻是一個令人興奮的研究領(lǐng)域。
傳統(tǒng)的弱光增強方法包括基于直方圖均衡的方法 和基于Retinex 模型的方法 。后者受到的關(guān)注相對較多。典型的基于Retinex 模型的方法通過某種先驗或正則化將低光圖像分解為反射分量和照明分量。估計的反射分量被視為增強結(jié)果。這種方法有一些局限性:1)將反射分量視為增強結(jié)果的理想假設(shè)并不總是成立,特別是考慮到各種照明屬性,這可能導(dǎo)致不切實際的增強,例如細節(jié)丟失和顏色失真,2)噪聲通常在Retinex 模型中被忽略,因此在增強的結(jié)果中保留或放大,3)找到有效的先驗或正則化具有挑戰(zhàn)性。不準確的先驗或正則化可能會導(dǎo)致增強結(jié)果中的偽影和顏色偏差,以及 4) 由于其復(fù)雜的優(yōu)化過程,運行時間相對較長。
近年來,自第一個開創(chuàng)性工作LLNet[1]以來,基于深度學(xué)習(xí)的 LLIE 取得了令人矚目的成功。與傳統(tǒng)方法相比,基于深度學(xué)習(xí)的解決方案具有更好的準確性、魯棒性和速度,因此近年來受到越來越多的關(guān)注。圖 2 顯示了基于深度學(xué)習(xí)的 LLIE 方法的一個簡明里程碑。如圖所示,自 2017 年以來,基于深度學(xué)習(xí)的解決方案的數(shù)量逐年增長。這些解決方案中使用的學(xué)習(xí)策略包括監(jiān)督學(xué)習(xí) (SL)、強化學(xué)習(xí) (RL)、無監(jiān)督學(xué)習(xí) (UL)、零樣本學(xué)習(xí) (ZSL) 和半監(jiān)督學(xué)習(xí) (SSL)。請注意,我們僅在圖 2 中報告了一些具有代表性的方法。實際上,從 2017 年到 2020 年,關(guān)于基于深度學(xué)習(xí)的方法的論文有 100 多篇,超過了常規(guī)方法的總數(shù)。此外,雖然一些通用的照片增強方法 [38]、[39]、[40]、[41]、[42]、[43]、[44]、[45]、[46] 可以將圖像的亮度提高到在某種程度上,我們在本次調(diào)查中省略了它們,因為它們并非旨在處理各種低光照條件。我們專注于專為弱光圖像和視頻增強而開發(fā)的基于深度學(xué)習(xí)的解決方案。
盡管深度學(xué)習(xí)主導(dǎo)了 LLIE 的研究,但缺乏對基于深度學(xué)習(xí)的解決方案的深入和全面的調(diào)查。文獻[47]、[48] 為兩篇 LLIE綜述文章。與主要回顧傳統(tǒng) LLIE 方法的 [47] 和從人類和機器視覺的角度探索幾種傳統(tǒng)和基于深度學(xué)習(xí)的 LLIE 方法的實驗性能的 [48] 相比,我們的調(diào)查具有以下獨特特征:1)我們的工作是第一個系統(tǒng)全面地回顧基于深度學(xué)習(xí)的 LLIE 的最新進展。我們在各個方面進行了深入的分析和討論,涵蓋學(xué)習(xí)策略、網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)、訓(xùn)練數(shù)據(jù)集、測試數(shù)據(jù)集、評估指標(biāo)等。2)我們提出了一個包含由在不同的照明條件下使用不同的設(shè)備來評估現(xiàn)有方法的泛化性。因此,我們?yōu)殛P(guān)鍵的開放性問題、挑戰(zhàn)和未來方向提供見解。此外,據(jù)我們所知,我們是第一個比較 LLIE 方法在不同現(xiàn)實世界場景中捕獲的低光視頻上性能的。3) 我們提供了一個在線平臺,涵蓋了許多流行的基于深度學(xué)習(xí)的 LLIE 方法,結(jié)果可以通過用戶友好的 Web 界面生成。這個統(tǒng)一的平臺解決了比較不同深度學(xué)習(xí)平臺中實現(xiàn)的不同方法并需要不同硬件配置的問題。使用我們的平臺,沒有任何 GPU 的人可以在線評估任何輸入圖像的不同方法的結(jié)果。
我們希望我們的調(diào)查能夠提供新的見解和啟發(fā),以促進對基于深度學(xué)習(xí)的 LLIE 的理解,促進對提出的未解決問題的研究,并加快該研究領(lǐng)域的發(fā)展。
2 DEEP LEARNING-BASED LLIE
2.1 Problem Definition
我們首先給出基于深度學(xué)習(xí)的 LLIE 問題的通用公式。對于寬高的低光圖像,過程可以建模為:
其中是增強結(jié)果,表示具有可訓(xùn)練參數(shù)的網(wǎng)絡(luò)。深度學(xué)習(xí)的目的是找到使誤差最小的最優(yōu)網(wǎng)絡(luò)參數(shù):
其中是 ground truth,損失函數(shù)驅(qū)動網(wǎng)絡(luò)的優(yōu)化。在網(wǎng)絡(luò)訓(xùn)練過程中可以使用監(jiān)督損失和無監(jiān)督損失等各種損失函數(shù)。更多細節(jié)將在第 3 節(jié)中介紹。
2.2 Learning Strategies
根據(jù)不同的學(xué)習(xí)策略,我們將現(xiàn)有的 LLIE 方法分為監(jiān)督學(xué)習(xí)、強化學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、零樣本學(xué)習(xí)和半監(jiān)督學(xué)習(xí)。圖 3 給出了從不同角度進行的統(tǒng)計分析。在下文中,我們回顧了每種策略的一些代表性方法。
監(jiān)督學(xué)習(xí)。對于基于監(jiān)督學(xué)習(xí)的 LLIE 方法,它們可以進一步分為端到端方法、基于深度Retinex 的方法和現(xiàn)實數(shù)據(jù)驅(qū)動方法。
第一個基于深度學(xué)習(xí)的 LLIE 方法 LLNet[1] 采用堆疊稀疏去噪自動編碼器 [49] 的變體同時對低光圖像進行增亮和去噪。這項開創(chuàng)性的工作激發(fā)了 LLIE 中端到端網(wǎng)絡(luò)的使用。呂等人。[3] 提出了一種端到端的多分支增強網(wǎng)絡(luò)(MBLLEN)。MBLLEN通過特征提取模塊、增強模塊和融合模塊提取有效的特征表示來提高 LLIE 的性能。同一作者 [15] 提出了其他三個子網(wǎng)絡(luò),包括Illumination-Net、Fusion-Net 和 Restoration-Net,以進一步提高性能。任等人。[12] 設(shè)計了一個更復(fù)雜的端到端網(wǎng)絡(luò),包括用于圖像內(nèi)容增強的編碼器-解碼器網(wǎng)絡(luò)和用于圖像邊緣增強的循環(huán)神經(jīng)網(wǎng)絡(luò)。與 [12] 類似,Zhu 等人。[16] 提出了一種稱為 EEMEFN的方法。EEMEFN包括兩個階段:多曝光融合和邊緣增強。為 LLIE 提出了一種多曝光融合網(wǎng)絡(luò) TBEFN[20]。TBEFN在兩個分支中估計一個傳遞函數(shù),可以得到兩個增強結(jié)果。最后,采用簡單的平均方案來融合這兩個圖像,并通過細化單元進一步細化結(jié)果。此外,在 LLIE 中引入了金字塔網(wǎng)絡(luò)(LPNet) [18]、殘差網(wǎng)絡(luò) [19] 和拉普拉斯金字塔 [21](DSLR)。這些方法通過 LLIE 常用的端到端網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)有效和高效地集成特征表示。最近,基于觀察到噪聲在不同頻率層中表現(xiàn)出不同程度的對比度,Xu 等人。[50] 提出了一種基于頻率的分解和增強網(wǎng)絡(luò)。該網(wǎng)絡(luò)在低頻層通過噪聲抑制恢復(fù)圖像內(nèi)容,同時在高頻層推斷細節(jié)。
與在端到端網(wǎng)絡(luò)中直接學(xué)習(xí)增強結(jié)果相比,由于物理上可解釋的Retinex 理論 [51]、[52],基于深度Retinex 的方法在大多數(shù)情況下享有更好的增強性能?;谏疃纫暰W(wǎng)膜的方法通常通過專門的子網(wǎng)絡(luò)分別增強 il 亮度分量和反射率分量。在 [4] 中提出了一個Retinex-Net。Retinex-Net 包括一個Decom-Net,它將輸入圖像拆分為與光無關(guān)的反射率和結(jié)構(gòu)感知平滑照明,以及一個調(diào)整照明圖以進行低光增強的Enhance-Net。為了減少計算負擔(dān),Li 等人。[5] 提出了一種用于弱光照圖像增強的輕量級LightenNet,它僅由四層組成。LightenNet 將弱光照圖像作為輸入,然后估計其光照圖。基于Retinex理論[51]、[52],通過將光照圖除以輸入圖像得到增強圖像。為了準確估計光照圖,Wang 等人。[53] 通過他們提出的DeepUPE 網(wǎng)絡(luò)提取全局和局部特征以學(xué)習(xí)圖像到照明的映射。張等人。[11] 分別開發(fā)了三個子網(wǎng)絡(luò),用于層分解、反射率恢復(fù)和光照調(diào)整,稱為 KinD。此外,作者通過多尺度照明注意模塊減輕了 KinD[11] 結(jié)果中留下的視覺缺陷。改進后的 KinD 稱為 KinD++[54]。為了解決基于深度Retinex 的方法中忽略噪聲的問題,Wang 等人。[10] 提出了一種漸進式Retinex 網(wǎng)絡(luò),其中 IM-Net估計光照,NM-Net 估計噪聲水平。這兩個子網(wǎng)絡(luò)以漸進的機制工作,直到獲得穩(wěn)定的結(jié)果。范等人。[14] 集成語義分割和Retinex 模型,以進一步提高實際案例中的增強性能。核心思想是使用語義先驗來指導(dǎo)照明分量和反射分量的增強。
盡管上述方法可以獲得不錯的性能,但由于使用了合成訓(xùn)練數(shù)據(jù),它們在真實的低光照情況下表現(xiàn)出較差的泛化能力。為了解決這個問題,一些方法試圖生成更真實的訓(xùn)練數(shù)據(jù)或捕獲真實數(shù)據(jù)。蔡等人。[6]構(gòu)建了一個多曝光圖像數(shù)據(jù)集,其中不同曝光水平的低對比度圖像有其對應(yīng)的高質(zhì)量參考圖像。每個高質(zhì)量的參考圖像都是通過從不同方法增強的 13 個結(jié)果中主觀選擇最佳輸出而獲得的。此外,在構(gòu)建的數(shù)據(jù)集上訓(xùn)練頻率分解網(wǎng)絡(luò),并通過兩階段結(jié)構(gòu)分別增強高頻層和低頻層。陳等人。[2] 收集一個真實的低光圖像數(shù)據(jù)集 (SID) 并訓(xùn)練 U-Net[55] 以學(xué)習(xí)從低光原始數(shù)據(jù)到 sRGB 空間中相應(yīng)的長曝光高質(zhì)量參考圖像的映射。此外,陳等人。[8] 將 SID 數(shù)據(jù)集擴展到低光視頻 (DRV)。DRV 包含具有相應(yīng)長時間曝光基本事實的靜態(tài)視頻。為了保證處理動態(tài)場景視頻的泛化能力,提出了一種孿生網(wǎng)絡(luò)。為了增強黑暗中的運動物體,Jiang 和 Zheng[9] 設(shè)計了一個同軸光學(xué)系統(tǒng)來捕獲時間同步和空間對齊的低光和高光視頻對(SMOID)。與 DRV 視頻數(shù)據(jù)集 [8] 不同,SMOID 視頻數(shù)據(jù)集包含動態(tài)場景。為了在 sRGB 空間中學(xué)習(xí)從原始低光視頻到高光視頻的映射,提出了一種基于 3DU-Net 的網(wǎng)絡(luò)。考慮到以前的低光視頻數(shù)據(jù)集的局限性,例如 DRV 數(shù)據(jù)集 [8] 僅包含統(tǒng)計視頻和 SMOID 數(shù)據(jù)集 [9] 僅具有 179 個視頻對,Triantafyllidou等人。[17] 提出了一種低光視頻合成管道,稱為 SIDGAN。SIDGAN可以通過具有中間域映射的半監(jiān)督雙CycleGAN 生成動態(tài)視頻數(shù)據(jù)(RAW-to-RGB)。為了訓(xùn)練這個管道,從Vimeo-90K 數(shù)據(jù)集 [56] 中收集了真實世界的視頻。低光原始視頻數(shù)據(jù)和相應(yīng)的長曝光圖像是從 DRV 數(shù)據(jù)集 [8] 中采樣的。利用合成的訓(xùn)練數(shù)據(jù),這項工作采用與 [2] 相同的 U-Net 網(wǎng)絡(luò)結(jié)構(gòu)進行低光視頻增強。
強化學(xué)習(xí)。在沒有配對訓(xùn)練數(shù)據(jù)的情況下,Yu 等人。[22] 通過強化對抗學(xué)習(xí)來學(xué)習(xí)曝光照片,命名為 DeepExposure。具體地,首先根據(jù)曝光將輸入圖像分割成子圖像。對于每個子圖像,策略網(wǎng)絡(luò)基于強化學(xué)習(xí)順序?qū)W習(xí)局部曝光。獎勵評估函數(shù)通過對抗學(xué)習(xí)來近似。最后,利用每次局部曝光對輸入進行修飾,從而獲得不同曝光下的多張修飾圖像。最終的結(jié)果是通過融合這些圖像來實現(xiàn)的。
無監(jiān)督學(xué)習(xí)。在配對數(shù)據(jù)上訓(xùn)練深度模型可能會導(dǎo)致過度擬合和泛化能力有限。為了解決這個問題,在 [23] 中提出了一種名為EnligthenGAN 的無監(jiān)督學(xué)習(xí)方法。EnlightenGAN 采用注意力引導(dǎo)的 U-Net[55] 作為生成器,并使用全局-局部鑒別器來確保增強的結(jié)果看起來像真實的正常光圖像。除了全局和局部對抗性損失外,還提出了全局和局部自特征保持損失來保留增強前后的圖像內(nèi)容。這是穩(wěn)定訓(xùn)練這種單路徑生成對抗網(wǎng)絡(luò)(GAN)結(jié)構(gòu)的關(guān)鍵點
Zero-shot Learning。監(jiān)督學(xué)習(xí)、強化學(xué)習(xí)和無監(jiān)督學(xué)習(xí)方法要么泛化能力有限,要么訓(xùn)練不穩(wěn)定。為了解決這些問題,提出了零樣本學(xué)習(xí)來僅從測試圖像中學(xué)習(xí)增強。注意,低層視覺任務(wù)中的零樣本學(xué)習(xí)概念是用來強調(diào)該方法不需要配對或非配對的訓(xùn)練數(shù)據(jù),這與它在高層視覺任務(wù)中的定義不同。張等人。[24] 提出了一種零樣本學(xué)習(xí)方法,稱為 ExCNet,用于背光圖像恢復(fù)。首先使用一個網(wǎng)絡(luò)來估計最適合輸入背光圖像的 S 曲線。一旦估計了 S 曲線,輸入圖像就會使用引導(dǎo)濾波器 [57] 分為基礎(chǔ)層和細節(jié)層。然后通過估計的 S 曲線調(diào)整基礎(chǔ)層。最后,Webercontrast [58] 用于融合細節(jié)層和調(diào)整后的基礎(chǔ)層。為了訓(xùn)練 ExCNet,作者將損失函數(shù)表述為基于塊的能量最小化問題。朱等人。[26] 提出了一個三分支 CNN,稱為 RRDNet,用于恢復(fù)曝光不足的圖像。RRDNet通過迭代最小化專門設(shè)計的損失函數(shù)將輸入圖像分解為照明、反射和噪聲。為了驅(qū)動零樣本學(xué)習(xí),提出了結(jié)合視網(wǎng)膜重構(gòu)損失、紋理增強損失和光照引導(dǎo)噪聲估計損失的方法。與基于圖像重建的方法 [1]、[3]、[4]、[11]、[12]、[21]、[54] 不同,在 [25] 中提出了一種深度曲線估計網(wǎng)絡(luò)零 DCE ]。Zero-DCE 將光增強制定為圖像特定曲線估計的任務(wù),它將低光圖像作為輸入并產(chǎn)生高階曲線作為其輸出。這些曲線用于對輸入的動態(tài)范圍進行逐像素調(diào)整,以獲得增強的圖像。此外,還提出了一種加速和輕型版本,稱為Zero-DCE++ [59]。這種基于曲線的方法在訓(xùn)練期間不需要任何配對或非配對數(shù)據(jù)。他們通過一組非參考損失函數(shù)實現(xiàn)零參考學(xué)習(xí)。此外,與需要大量計算資源的基于圖像重建的方法不同,圖像到曲線的映射只需要輕量級網(wǎng)絡(luò),從而實現(xiàn)快速的推理速度。半監(jiān)督學(xué)習(xí)。為了結(jié)合監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)的優(yōu)勢,近年來提出了半監(jiān)督學(xué)習(xí)。楊等人。[27]提出了一種半監(jiān)督深度遞歸帶網(wǎng)絡(luò)(DRBN)。DRBN首先在監(jiān)督學(xué)習(xí)下恢復(fù)增強圖像的線性波段表示,然后通過基于無監(jiān)督對抗學(xué)習(xí)的可學(xué)習(xí)線性變換重新組合給定波段來獲得改進的波段表示
觀察圖 3(a),我們可以發(fā)現(xiàn)監(jiān)督學(xué)習(xí)是基于深度學(xué)習(xí)的 LLIE 方法中的主流。比例達到77%。這是因為當(dāng) LOL[4]、SID [2]和各種低光/正常光圖像合成方法等配對訓(xùn)練數(shù)據(jù)公開可用時,監(jiān)督學(xué)習(xí)相對容易。然而,基于監(jiān)督學(xué)習(xí)的方法面臨一些挑戰(zhàn):1) 收集涵蓋各種現(xiàn)實世界弱光條件的大規(guī)模配對數(shù)據(jù)集是困難的,2) 合成的弱光圖像不能準確地表示現(xiàn)實世界的照度諸如空間變化的照明和不同級別的噪聲等條件,以及 3) 在配對數(shù)據(jù)上訓(xùn)練深度模型可能會導(dǎo)致對具有不同照明屬性的真實世界圖像的過度擬合和有限泛化
因此,一些方法采用無監(jiān)督學(xué)習(xí)、強化學(xué)習(xí)、半監(jiān)督學(xué)習(xí)和零樣本學(xué)習(xí)來繞過監(jiān)督學(xué)習(xí)中的挑戰(zhàn)。盡管這些方法實現(xiàn)了競爭性能,但它們?nèi)匀淮嬖谝恍┚窒扌裕?)對于無監(jiān)督學(xué)習(xí)/半監(jiān)督學(xué)習(xí)方法,如何實現(xiàn)穩(wěn)定的訓(xùn)練、避免顏色偏差以及建立跨域信息的關(guān)系對當(dāng)前的方法提出了挑戰(zhàn) , 2) 對于強化學(xué)習(xí)方法,設(shè)計有效的獎勵機制和實施高效穩(wěn)定的訓(xùn)練是錯綜復(fù)雜的,以及 3) 對于零樣本學(xué)習(xí)方法,非參考損失的設(shè)計在保色、去除偽影時非常重要,并且應(yīng)該考慮梯度反向傳播。
3TECHNICAL REVIEW AND DISCUSSION
在本節(jié)中,我們首先總結(jié)表 1 中具有代表性的基于深度學(xué)習(xí)的 LLIE 方法,然后分析和討論它們的技術(shù)特點。
表1:基于深度學(xué)習(xí)的代表性方法的基本特征總結(jié),包括學(xué)習(xí)策略、網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)、訓(xùn)練數(shù)據(jù)集、測試數(shù)據(jù)集、評估指標(biāo)、輸入數(shù)據(jù)格式以及模型是否基于Retinex。“simulated”是指通過與合成訓(xùn)練數(shù)據(jù)相同的方法模擬測試數(shù)據(jù)?!皊elf-selected”代表作者選擇的真實世界圖像。“#P”表示可訓(xùn)練參數(shù)的數(shù)量。“-”表示該項目不可用或未在論文中注明。
3.1 Network Structure
現(xiàn)有模型中使用了多種網(wǎng)絡(luò)結(jié)構(gòu)和設(shè)計,從基本的 U-Net、金字塔網(wǎng)絡(luò)、多級網(wǎng)絡(luò)到頻率分解網(wǎng)絡(luò)。分析圖3(b)可以看出,LLIE中主要采用U-Net和類U-Net網(wǎng)絡(luò)。這是因為 U-Net 可以有效地集成多尺度特征,并同時使用低級和高級特征。這些特性對于實現(xiàn)令人滿意的低光增強是必不可少的。
然而,在當(dāng)前的 LLIE 網(wǎng)絡(luò)結(jié)構(gòu)中可能會忽略一些關(guān)鍵問題:
1)在經(jīng)過幾個卷積層后,由于其像素值較小,極低光圖像的梯度在梯度反向傳播過程中可能會消失,這會降低增強性能并影響網(wǎng)絡(luò)訓(xùn)練的收斂性。
2)類 U-Net 的網(wǎng)絡(luò)中使用的跳躍連接可能會在最終結(jié)果中引入噪聲和冗余特征。應(yīng)該仔細考慮如何有效濾除噪聲并融合低級和高級特征。
3)雖然為 LLIE 提出了一些設(shè)計和組件,但大部分都是從相關(guān)的低級視覺任務(wù)中借用或修改的。在設(shè)計網(wǎng)絡(luò)結(jié)構(gòu)時應(yīng)考慮低光數(shù)據(jù)的特性。
3.2 Combination of Deep Model and Retinex Theory
如圖 3(c) 所示,幾乎 1/3 的方法將深度網(wǎng)絡(luò)的設(shè)計與Retinex 理論相結(jié)合,例如,設(shè)計不同的子網(wǎng)絡(luò)來估計Retinex 模型的組件,并估計光照圖來指導(dǎo)學(xué)習(xí)網(wǎng)絡(luò)。盡管這種組合可以建立基于深度學(xué)習(xí)和基于模型的方法之間的聯(lián)系,但它們各自的弱點可能會引入最終模型中:1)反射率是基于Retinex 的 LLIE 方法中使用的最終增強結(jié)果的理想假設(shè)仍然會影響最終結(jié)果,以及 2)盡管引入了Retinex 理論,但深度網(wǎng)絡(luò)中過度擬合的風(fēng)險仍然存在。因此,當(dāng)研究人員將深度學(xué)習(xí)與Retinex 理論相結(jié)合時,應(yīng)該仔細考慮如何取其精華,去其糟粕。
3.3 Data Format
如圖 3(d) 所示,原始數(shù)據(jù)格式Raw在大多數(shù)方法中占主導(dǎo)地位。盡管原始數(shù)據(jù)僅限于特定傳感器,例如基于拜耳模式的傳感器,但數(shù)據(jù)涵蓋更廣的色域和更高的動態(tài)范圍。因此,在原始數(shù)據(jù)上訓(xùn)練的深度模型通??梢曰謴?fù)清晰的細節(jié)和高對比度,獲得鮮艷的色彩,減少噪聲和偽影的影響,并提高極低光圖像的亮度。盡管如此,RGB 格式也用于某些方法,因為它通常是智能手機相機、Go-Pro 相機和無人機相機產(chǎn)生的最終圖像形式。在未來的研究中,從不同模式的原始數(shù)據(jù)到RGB格式的平滑轉(zhuǎn)換將有可能結(jié)合RGB數(shù)據(jù)的便利性和LLIE對原始數(shù)據(jù)的高質(zhì)量增強的優(yōu)勢。
3.4 Loss Function
在圖3(e)中,LLIE模型中常用的損失函數(shù)包括重建損失(L1、L2、SSIM)、感知損失和平滑損失。此外,根據(jù)不同的需求和策略,還采用了顏色損失、曝光損失和對抗損失。我們將代表性損失函數(shù)詳述如下。
重建損失(ReconstructionLoss)。常用的 L1、L2 和 SSIM 損失可以表示為:
其中和分別代表ground truth和增強結(jié)果,、和分別是輸入圖像的高度、寬度和通道。均值和方差分別由和表示。根據(jù) SSIM 損失 [60] 中的默認值,將常數(shù)和設(shè)置為 0.02 和 0.03。不同的重建損失有其優(yōu)點和缺點。損失傾向于懲罰較大的錯誤,但可以容忍小錯誤。損失可以很好地保留顏色和亮度,因為無論局部結(jié)構(gòu)如何,都會對誤差進行同等加權(quán)。損失很好地保留了結(jié)構(gòu)和紋理。詳細分析見[61]。
感知損失。[62]提出了感知損失來限制與特征空間中的基本事實相似的結(jié)果。損失提高了結(jié)果的視覺質(zhì)量。它被定義為增強結(jié)果的特征表示與對應(yīng)的ground-truth的特征表示之間的歐幾里得距離。特征表示通常是從在ImageNet 數(shù)據(jù)集 [64] 上預(yù)訓(xùn)練的 VGG 網(wǎng)絡(luò) [63] 中提取的。感知損失可以表示為:
其中、和分別是特征圖的高度、寬度和通道數(shù)。函數(shù)表示從 VGG 網(wǎng)絡(luò)的第個卷積層(在 ReLU 激活之后)提取的特征表示。
平滑度損失。為了去除增強結(jié)果中的噪聲或保留相鄰像素的關(guān)系,通常使用平滑損失(TV loss)來約束增強結(jié)果或估計的光照圖,可以表示為:
其中和分別是水平和垂直梯度操作。
對抗性損失
。為了鼓勵增強的結(jié)果與參考圖像區(qū)分開來,對抗性學(xué)習(xí)解決了以下優(yōu)化問題:其中生成器試圖生成“假”圖像來欺騙鑒別器。鑒別器試圖將“假”圖像與參考圖像區(qū)分開來。輸入是從源流形中采樣的,而是從目標(biāo)流形中采樣的任意參考圖像。為了優(yōu)化生成器,應(yīng)該最小化這個損失函數(shù):其中輸出增強的結(jié)果。為了優(yōu)化鑒別器,這個損失函數(shù)被最小化:
曝光損失。作為基于的方法中的關(guān)鍵損失函數(shù)之一,曝光損失衡量了在沒有配對或未配對圖像作為參考圖像的情況下增強結(jié)果的曝光水平,可以表示為:
其中M是固定大?。J為16×16)的非重疊區(qū)域的數(shù)量,Y是增強結(jié)果中區(qū)域的平均強度值。
LLIE 網(wǎng)絡(luò)中常用的損失函數(shù),如 L1、L2、SSIM、感知損失,也用于圖像重建網(wǎng)絡(luò)中,用于圖像超分辨率 [65]、圖像去噪 [66]、圖像去訓(xùn)練(Imagedetraining) [67]、[68 ]和圖像去模糊[69]。與這些通用損失不同,為 LLIE 專門設(shè)計的曝光損失激發(fā)了非參考損失的設(shè)計。非參考損失不依賴參考圖像,從而使模型具有更好的泛化能力。在設(shè)計損失函數(shù)時考慮圖像特征是一項正在進行的研究。
3.5 Training Datasets
圖 3(f) 報告了使用各種配對訓(xùn)練數(shù)據(jù)集來訓(xùn)練低光增強網(wǎng)絡(luò)。這些數(shù)據(jù)集包括真實世界捕獲的數(shù)據(jù)集和合成數(shù)據(jù)集。我們將它們列在表 2 中,并詳細介紹如下。
Gamma 校正模擬
。由于其非線性和簡單性,伽瑪校正用于調(diào)整視頻或靜止圖像系統(tǒng)中的亮度或三色值。它由冪律表達式定義。
其中輸入 和輸出通常在 [0,1] 范圍內(nèi)。通常情況下,常數(shù)設(shè)置為 1。功率 控制輸出的亮度。直觀地說,輸入在<1時變亮, ??>1時變暗。輸入可以是圖像的三個 RGB 通道,也可以是與亮度相關(guān)的通道,例如 CIELab顏色空間中的 通道和 顏色空間中的 通道。使用校正調(diào)整亮度相關(guān)通道后,顏色空間中的相應(yīng)通道按等比例調(diào)整,以避免產(chǎn)生偽影和顏色偏差。
為了模擬在真實世界的低光照場景中拍攝的圖像,將高斯噪聲、泊松噪聲或真實噪聲添加到 校正圖像中。使用 校正合成的低光圖像可以表示為:
其中代表噪聲模型,代表值的校正函數(shù),是正常光和高質(zhì)量圖像或亮度相關(guān)通道。雖然該函數(shù)通過改變 值來產(chǎn)生不同光照水平的微光圖像,但由于非線性調(diào)整,它往往會在合成的微光圖像中引入偽影和顏色偏差。
隨機照明模擬
。根據(jù)Retinex 模型,圖像可以分解為反射分量和光照分量?;趫D像內(nèi)容與光照分量無關(guān)且光照分量中的局部區(qū)域具有相同強度的假設(shè),可以通過下式獲得弱光圖像。其中是范圍內(nèi)的隨機光照值??梢詫⒃肼曁砑拥胶铣蓤D像中。這種線性函數(shù)避免了偽影,但強假設(shè)要求合成僅在局部區(qū)域具有相同亮度的圖像塊上運行。由于上下文信息的疏忽,在此類圖像塊上訓(xùn)練的深度模型可能會導(dǎo)致次優(yōu)性能。
LOL。LOL[4] 是第一個在真實場景中拍攝的配對低光/正常光圖像數(shù)據(jù)集。通過改變曝光時間和 ISO 來收集低光圖像。LOL 包含 500 對以 RGB 格式保存的大小為400×600 的低光/正常光圖像。
SCIE。SCIE 是低對比度和良好對比度圖像對的多曝光圖像數(shù)據(jù)集。它包括 589 個室內(nèi)和室外場景的多重曝光序列。每個序列有3到18張不同曝光級別的低對比度圖像,因此總共包含4,413張多重曝光圖像。589張高質(zhì)量的參考圖像是從13種具有代表性的增強算法的結(jié)果中選擇得到的。即許多多重曝光圖像具有相同的高對比度參考圖像。圖像分辨率介于3,000×2,000 和6,000×4,000 之間。SCIE 中的圖像以 RGB 格式保存。
MIT-Adobe FiveK。MIT-Adobe FiveK [70] 被收集用于全局色調(diào)調(diào)整,但已用于 LLIE。這是因為輸入圖像具有低光和低對比度。MIT-Adobe FiveK 包含 5,000 張圖像,每張圖像都由 5 位訓(xùn)練有素的攝影師進行美化,以呈現(xiàn)視覺上令人愉悅的效果,類似于明信片。因此,每個輸入都有五個修飾結(jié)果。通常,專家C的結(jié)果在訓(xùn)練階段被用作地面ground-truth圖像。圖片都是Raw原始格式。要訓(xùn)練能夠處理 RGB 格式圖像的網(wǎng)絡(luò),需要使用 AdobeLightroom 對圖像進行預(yù)處理,并按照此過程將其保存為 RGB 格式。圖像通常被調(diào)整為長邊為500像素的大小。
SID。SID[2] 包含 5,094 張原始短曝光圖像,每張圖像都有對應(yīng)的長曝光參考圖像。不同的長曝光參考圖像的數(shù)量為424。換句話說,多個短曝光圖像對應(yīng)于相同的長曝光參考圖像。這些圖像是在室內(nèi)和室外場景中使用兩臺相機拍攝的:索尼 α7S II和富士 X-T2。因此,圖像具有不同的傳感器模式(索尼相機的拜耳傳感器和富士相機的 APS-CX-Trans 傳感器)。索尼的分辨率為4,240×2,832,富士的分辨率為6,000×4,000。通常,長曝光圖像由 libraw(一個原始圖像處理庫)處理并保存在 sRGB 顏色空間中,并隨機裁剪512×512 塊進行訓(xùn)練。
VE-LOL。VE-LOL[48] 包含兩個子集:用于訓(xùn)練和評估 LLIE 方法的配對 VE-LOLL 和用于評估 LLIE 方法對人臉檢測效果的未配對VE-LOL-H。具體來說,VE-LOLL 包括 2,500 個配對圖像。其中,1000雙是合成的,1500雙是真實的。VE-LOL-H 包括 10,940張未配對的圖像,其中人臉是用邊界框手動注釋的。
DRV。DRV[8] 包含 202 個靜態(tài)原始視頻,每個視頻都有一個對應(yīng)的長曝光ground-truth。每個視頻在連續(xù)拍攝模式下以每秒大約 16 到 18 幀的速度拍攝,最多可拍攝 110 幀。這些圖像由索尼 RX100VI 相機在室內(nèi)和室外場景中拍攝,因此全部采用 BayerRaw 格式。分辨率為3,672×5,496。
SMOID。SMOID[9] 包含 179 對由同軸光學(xué)系統(tǒng)拍攝的視頻,每對有 200 幀。因此,SMOID 包括 35,800個極低光BayerRaw 圖像及其相應(yīng)的光照良好的 RGB 計數(shù)器。SMOID 中的視頻由不同光照條件下的移動車輛和行人組成。
一些問題對上述配對訓(xùn)練數(shù)據(jù)集提出了挑戰(zhàn):1)由于合成數(shù)據(jù)和真實數(shù)據(jù)之間的差距,在合成數(shù)據(jù)上訓(xùn)練的深度模型在處理真實世界的圖像和視頻時可能會引入偽影和顏色偏差,2)數(shù)據(jù)的規(guī)模和多樣性,真實的訓(xùn)練數(shù)據(jù)不能令人滿意,因此一些方法會結(jié)合合成數(shù)據(jù)來增加訓(xùn)練數(shù)據(jù)。這可能會導(dǎo)致次優(yōu)增強,并且 3) 輸入圖像和相應(yīng)的 ground-truth可能會由于運動、硬件和環(huán)境的影響而存在錯位。這將影響使用逐像素損失函數(shù)訓(xùn)練的深度網(wǎng)絡(luò)的性能。
3.6 Testing Datasets
除了成對數(shù)據(jù)集[2]、[4]、[6]、[8]、[9]、[48]、[70]中的測試子集外,還有一些從相關(guān)工作中收集或常見的測試數(shù)據(jù)用于實驗比較。它們是從 LIME[32]、NPE[30]、MEF[71]、DICM[72] 和 VV2 收集的。此外,一些數(shù)據(jù)集,如黑暗中的人臉檢測[73]和低光圖像中的檢測和識別[74]被用來測試LLIE對高級視覺任務(wù)的影響。我們總結(jié)了表 3 中常用的測試數(shù)據(jù)集,并介紹了具有代表性的測試數(shù)據(jù)集如下。
BBD-100K。
BBD-100K [75] 是最大的駕駛視頻數(shù)據(jù)集,包含 10,000個視頻,涵蓋一天中許多不同時間、天氣條件和駕駛場景的 1,100 小時駕駛體驗,以及 10 個任務(wù)注釋。在 BBD-100K夜間拍攝的視頻用于驗證 LLIE 對高級視覺任務(wù)的影響以及在真實場景中的增強性能。
ExDARK。
ExDARK[74] 數(shù)據(jù)集是為低光圖像中的對象檢測和識別而構(gòu)建的。 ExDARK數(shù)據(jù)集包含 7,363 張從極低光環(huán)境到暮光環(huán)境的低光圖像,其中包含 12 個對象類,并使用圖像類標(biāo)簽和局部對象邊界框進行注釋。黑臉。 DARKFACE [73] 數(shù)據(jù)集包含 6,000 張夜間室外場景中拍攝的低光圖像,每張圖像都標(biāo)有人臉邊界框。從圖 3(g) 中,我們可以觀察到人們更喜歡在實驗中使用自己收集的測試數(shù)據(jù)。主要原因有三點:1)除了成對數(shù)據(jù)集的測試劃分,沒有公認的評估基準,2)常用的測試集存在規(guī)模?。ú糠譁y試集僅包含10張圖像)等缺點 )、重復(fù)的內(nèi)容和光照特性,以及未知的實驗設(shè)置,以及 3) 一些常用的測試數(shù)據(jù)最初不是為了評估 LLIE 而收集的。一般來說,當(dāng)前的測試數(shù)據(jù)集可能會導(dǎo)致偏差和不公平的比較。
3.7 Evaluation Metrics
除了基于人類感知的主觀評估外,圖像質(zhì)量評估 (IQA) 指標(biāo),包括完全參考和非參考 IQA 指標(biāo),能夠客觀地評估圖像質(zhì)量。此外,用戶研究、可訓(xùn)練參數(shù)的數(shù)量、FLOP、運行時和基于應(yīng)用程序的評估也反映了 LLIE 模型的性能,如圖 3(h) 所示。我們將詳細介紹它們?nèi)缦隆?/p>
PSNR 和 MSE
。 PSNR 和 MSE 是低級視覺任務(wù)中廣泛使用的 IQA 指標(biāo)。它們總是非負的,更接近無限(PSNR)和零(MSE)的值更好。然而,像素級 PSNR 和 MSE 可能無法準確地指示圖像質(zhì)量的視覺感知,因為它們忽略了相鄰像素的關(guān)系。
MAE
。 MAE 表示平均絕對誤差,作為成對觀測值之間誤差的度量。 MAE值越小,相似度越高。
SSIM
。 SSIM 用于衡量兩幅圖像之間的相似度。它是一種基于感知的模型,將圖像退化視為結(jié)構(gòu)信息的感知變化。值為1只有在兩組相同數(shù)據(jù)的情況下才能達到,表明結(jié)構(gòu)相似。
LOE
。 LOE 表示反映增強圖像自然度的亮度順序誤差。對于 LOE,LOE 值越小,亮度順序保持得越好。應(yīng)用。除了提高視覺質(zhì)量外,圖像增強的目的之一是服務(wù)于高級視覺任務(wù)。因此,LLIE 對高級視覺應(yīng)用程序的影響通常被檢查以驗證不同方法的性能。目前在 LLIE 中使用的評估方法需要在幾個方面進行改進:1)雖然 PSNR、MSE、MAE 和 SSIM 是經(jīng)典和流行的指標(biāo),但它們距離捕捉人類的真實視覺感知還很遠,2)一些指標(biāo)最初不是為低光圖像設(shè)計的。它們用于評估圖像信息和對比度的保真度。使用這些指標(biāo)可能會反映圖像質(zhì)量,但它們與弱光增強的真正目的相去甚遠,3)缺乏專門為弱光圖像設(shè)計的指標(biāo),除了LOE指標(biāo)。此外,沒有用于評估低光視頻增強的指標(biāo),4) 期望能有一個可以平衡人類視覺和機器感知的指標(biāo)。
4 BENCHMARKING AND EMPIRICAL ANALYSIS
本節(jié)提供實證分析,并強調(diào)基于深度學(xué)習(xí)的 LLIE 中的一些關(guān)鍵挑戰(zhàn)。為了便于分析,我們提出了一個大規(guī)模的低光圖像和視頻數(shù)據(jù)集來檢查不同基于深度學(xué)習(xí)的解決方案的性能。此外,我們開發(fā)了第一個在線平臺,可以通過用戶友好的網(wǎng)絡(luò)界面生成基于深度學(xué)習(xí)的 LLIE 模型的結(jié)果。在本節(jié)中,我們對幾個基準和我們提出的數(shù)據(jù)集進行了廣泛的評估。在實驗中,我們比較了13 種具有代表性的方法,包括 7 種基于監(jiān)督學(xué)習(xí)的方法(LLNet[1]、LightenNet[5]、Retinex-Net[4]、MBLLEN[3]、KinD[11]、KinD++[54]、 TBEFN[20]、DSLR[21])、一種基于無監(jiān)督學(xué)習(xí)的方法(EnlightenGAN[23])、一種基于半監(jiān)督學(xué)習(xí)的方法(DRBN[27])和三種基于零樣本學(xué)習(xí)的方法( ExCNet[24]、零 DCE[25]、RRDNet[26])。我們使用公開可用的代碼來生成結(jié)果以進行公平比較。
4.1 A New Low-Light Image and Video Dataset
我們提出了一個名為LoLi-Phone 的大規(guī)模低光圖像和視頻數(shù)據(jù)集,以全面徹底地驗證 LLIE 方法的性能。LoLi-Phone 是同類中最大、最具挑戰(zhàn)性的真實世界測試數(shù)據(jù)集。特別是,該數(shù)據(jù)集包含由 18 種不同手機相機拍攝的 120 個視頻(55,148 張圖像),包括 iPhone6s、iPhone7、iPhone7Plus、iPhone8Plus、iPhone11、iPhone11 Pro、iPhoneXS、iPhoneXR、iPhoneSE、小米小米 9、小米 Mix 3、Pixel 3、Pixel 4、OppoR17、VivoNex、LG M322、一加 5T、華為 Mate20 Pro 在各種光照條件下(例如弱光、曝光不足、月光、暮光、黑暗、極暗)、背光、非均勻光和彩色光。)在室內(nèi)和室外場景中。表 4 提供了LoLi-Phone 數(shù)據(jù)集的摘要。我們在圖 4 中展示了 LoLi 電話數(shù)據(jù)集的幾個示例。我們將發(fā)布建議的LoLi-Phone 數(shù)據(jù)集。
Fig. 4: Several images sampled from the proposedLoLiPhone dataset. The images and videos are taken by different devices underdiverse lighting conditions and scenes.
這個具有挑戰(zhàn)性的數(shù)據(jù)集是在真實場景中收集的,包含各種低光圖像和視頻。因此,它適用于評估不同低光圖像和視頻增強模型的泛化能力。值得注意的是,該數(shù)據(jù)集可用作基于無監(jiān)督學(xué)習(xí)的方法的訓(xùn)練數(shù)據(jù)集和合成方法的參考數(shù)據(jù)集,以生成逼真的低光圖像和視頻。
4.2 Online Evaluation Platform
不同的深度模型可以在不同的深度學(xué)習(xí)平臺上實現(xiàn),例如 Caffe、Theano、TensorFlow和PyTorch。因此,不同的算法需要不同的配置、GPU 版本和硬件規(guī)格。這樣的要求讓很多研究人員望而卻步,尤其是對于剛接觸這個領(lǐng)域甚至可能沒有 GPU 資源的初學(xué)者。為了解決這些問題,我們開發(fā)了一個名為 LoLiPlatform 的 LLIE 在線平臺。該平臺可在http://mc.nankai.edu. cn/ll/ 。
到目前為止,LoLi 平臺涵蓋了 13 種流行的基于深度學(xué)習(xí)的 LLIE 方法,包括 LLNet[1]、LightenNet[5]、Retinex-Net[4]、EnlightenGAN[23]、MBLLEN[3]、KinD [11]、KinD++[54]、TBEFN[20]、DSLR[21]、DRBN[27]、ExCNet[24]、Zero-DCE[25] 和 RRDNet[26],通過一個用戶友好的網(wǎng)絡(luò)界面,可以將任何輸入的結(jié)果輸出。我們會定期在這個平臺上提供新的方法。我們希望這個 LoLi 平臺能夠通過為用戶提供靈活的界面來運行現(xiàn)有的基于深度學(xué)習(xí)的 LLIE 方法并開發(fā)他們自己的新 LLIE 方法,從而為不斷發(fā)展的研究社區(qū)服務(wù)。
4.3 Benchmarking Results
為了定性和定量地評估不同的方法,除了提出的LoLi-Phone 數(shù)據(jù)集外,我們還采用了常用的 LOL[4] 和MIT-Adobe FiveK [70] 數(shù)據(jù)集。更多視覺結(jié)果可以在補充材料中找到。此外,不同手機攝像頭拍攝的真實微光視頻對比結(jié)果可以在YouTube上找到
https://www.youtube.com/watch?v=Elo9TkrG5Oo&t=6s
.具體來說,我們從LoLi-Phone 數(shù)據(jù)集的每個視頻中平均選擇 5 張圖像,形成一個包含 600 張圖像的圖像測試數(shù)據(jù)集(記為LoLi-Phone imgT)。此外,我們從每個手機品牌的LoLi-Phone 數(shù)據(jù)集的視頻中隨機選擇一個視頻,形成一個包含 18 個視頻的視頻測試數(shù)據(jù)集(記為LoLi-Phone-vidT)。我們將LoLi-Phone-imgT 和 LoLi-Phone-vidT 中幀的分辨率減半,因為一些基于深度學(xué)習(xí)的方法無法處理測試圖像和視頻的全分辨率。對于 LOL 數(shù)據(jù)集,我們采用包含 15 個在真實場景中捕獲的低光圖像的原始測試集進行測試,記為LOL-test。對于MIT-Adobe FiveK 數(shù)據(jù)集,我們按照 [40] 中的處理將圖像解碼為 PNG 格式,并使用Lightroom 將它們調(diào)整為具有 512 像素的長邊。我們采用與[40]相同的測試數(shù)據(jù)集,麻省理工學(xué)院 Adobe FiveK-test,包括 500 張圖像,其中專家 C 的修飾結(jié)果作為相應(yīng)的基本事實。
定性比較
(QualitativeComparison)。我們首先在圖 5 和圖 6 中展示了不同方法對從LOL-test 和MIT-Adobe FiveK-test 數(shù)據(jù)集采樣的圖像的結(jié)果。如圖 5 所示,所有方法都提高了輸入圖像的亮度和對比度。然而,當(dāng)將結(jié)果與基本事實進行比較時,它們都沒有成功地恢復(fù)輸入圖像的準確顏色。特別是,LLNet[1] 會產(chǎn)生模糊結(jié)果。LightenNet [5] 和 RRDNet[26] 產(chǎn)生曝光不足的結(jié)果,而 MBLLEN[3] 和 ExCNet[24] 往往會過度曝光圖像。 KinD[11]、KinD++[54]、TBEFN[20]、DSLR[21]、EnlightenGAN[23] 和 DRBN[27] 引入了明顯的偽影。在圖 6 中,LLNet [5]、KinD++ [54]、TBEFN [20] 和 RRDNet [26] 產(chǎn)生了過度曝光的結(jié)果。 Retinex-Net [4]、KinD++ [54] 和 RRDNet [26] 在結(jié)果中產(chǎn)生偽影和模糊。我們發(fā)現(xiàn) MIT Adobe FiveK 數(shù)據(jù)集的基本事實仍然包含一些暗區(qū)。這是因為該數(shù)據(jù)集最初是為全局圖像修飾而設(shè)計的,其中恢復(fù)低光區(qū)域不是該任務(wù)的主要優(yōu)先事項。
我們還觀察到 LOL 數(shù)據(jù)集和MIT-Adobe FiveK 數(shù)據(jù)集中的輸入圖像相對沒有噪聲,這與真實的低光場景不同。盡管一些 LLIE 方法 [18]、[21]、[53] 將 MITAdobe FiveK 數(shù)據(jù)集作為訓(xùn)練或測試數(shù)據(jù)集,但我們認為該數(shù)據(jù)集不適合 LLIE 的任務(wù),因為它的不匹配/不令人滿意的基礎(chǔ) LLIE的真相。為了檢查不同方法的泛化能力,我們對從我們的LoLi-Phone-imgT 數(shù)據(jù)集中采樣的圖像進行比較。不同方法的視覺結(jié)果如圖 7 和圖 8 所示。如圖 7 所示,所有方法都不能有效地提高輸入低光圖像的亮度和去除噪聲。此外,Retinex-Net[4]、MBLLEN[3] 和 DRBN[27] 會產(chǎn)生明顯的偽影。在圖 8 中,所有方法都增強了該輸入圖像的亮度。然而,只有 MBLLEN[3] 和 RRDNet[26] 在沒有顏色偏差、偽影和曝光過度/不足的情況下獲得視覺上令人愉悅的增強效果。值得注意的是,對于有光源的區(qū)域,沒有一種方法可以在不放大這些區(qū)域周圍的噪聲的情況下使圖像變亮。將光源考慮到 LLIE 將是一個有趣的探索方向。結(jié)果表明增強LoLi-Phone-imgT 數(shù)據(jù)集圖像的難度。
定量比較
(QuantitativeComparison)。對于具有基本事實的測試集,即LOL-test 和MIT-Adobe FiveK-test,我們采用 MSE、PSNR、SSIM[60] 和 LPIPS[76] 指標(biāo)來定量比較不同的方法。 LPIPS[76] 是一種基于深度學(xué)習(xí)的圖像質(zhì)量評估指標(biāo),它通過深度視覺表示來測量結(jié)果與其對應(yīng)的基本事實之間的感知相似性。對于 LPIPS,我們采用基于AlexNet 的模型來計算感知相似度。較低的 LPIPS 值表明在感知相似性方面更接近相應(yīng)的基本事實的結(jié)果。在表 5 中,我們展示了定量結(jié)果。
如表 5 所示,在LOL-test 和MIT-Adobe FiveK-test 上,基于監(jiān)督學(xué)習(xí)的方法的定量分數(shù)優(yōu)于基于無監(jiān)督學(xué)習(xí)、基于半監(jiān)督學(xué)習(xí)和基于零樣本學(xué)習(xí)的方法數(shù)據(jù)集。其中,LLNet[1] 在LOL-test 數(shù)據(jù)集上獲得了最好的 MSE 和 PSNR 值;但是,它在MIT-Adobe FiveK-test 數(shù)據(jù)集上的性能下降。這可能是由于 LLNet [1] 對 LOL 數(shù)據(jù)集的偏見,因為它是使用 LOL 訓(xùn)練數(shù)據(jù)集進行訓(xùn)練的。對于 LOL 測試數(shù)據(jù)集,TBEFN[20] 獲得最高的 SSIM 值,而 KinD[11] 獲得最低的 LPIPS 值。盡管有些方法是在 LOL 訓(xùn)練數(shù)據(jù)集上訓(xùn)練的,但在 LOL 測試數(shù)據(jù)集上的這四個評估指標(biāo)中沒有贏家。對于MIT-Adobe FiveK-test 數(shù)據(jù)集,MBLLEN [3] 在四個評估指標(biāo)下優(yōu)于所有比較方法,盡管在合成訓(xùn)練數(shù)據(jù)上進行了訓(xùn)練。盡管如此,MBLLEN[3] 仍然無法在兩個測試數(shù)據(jù)集上獲得最佳性能。對于LoLi-Phone-imgT 測試集,我們使用非參考圖像質(zhì)量評估指標(biāo),即 NIQE [77]、感知指數(shù) (PI)[77]、[78]、[79]、LOE[30] 和 SPAQ[80]定量比較不同的方法。在 LOE 方面,LOE 值越小,亮度順序保持得越好。對于NIQE,NIQE值越小,視覺質(zhì)量越好。較低的 PI 值表示更好的感知質(zhì)量。 SPAQ 是為智能手機攝影的感知質(zhì)量評估而設(shè)計的。較大的 SPAQ 值表明智能手機攝影的感知質(zhì)量更好。定量結(jié)果見表 6。觀察表 6,我們可以發(fā)現(xiàn)Retinex-Net [4]、KinD++[54] 和EnlightenGAN [23] 的性能相對優(yōu)于其他方法。 Retinex-Net [4] 獲得了最好的 PI 和 SPAQ 分數(shù)。這些分數(shù)表明Retinex-Net [4] 增強了結(jié)果的良好感知質(zhì)量。然而,從圖 7(d) 和圖 8(d) 來看,Retinex-Net[4] 的結(jié)果明顯受到偽影和顏色偏差的影響。因此,我們認為非參考 PI 和 SPAQ 指標(biāo)可能不適合低光圖像的感知質(zhì)量評估。此外,KinD++[54] 的 NIQE 得分最低,而原始輸入的 LOE 得分最低。對于事實上的標(biāo)準 LOE 指標(biāo),我們質(zhì)疑亮度順序是否可以有效地反映增強性能。總體而言,非參考 IQA 指標(biāo)在評估增強的低光圖像質(zhì)量時存在偏差。
為了準備LoLi-vidT 測試集中的視頻,我們首先丟棄連續(xù)幀中沒有明顯物體的視頻??偣策x擇了10個視頻。對于每個視頻,我們選擇一個出現(xiàn)在所有幀中的對象。然后,我們使用跟蹤器 [81] 跟蹤輸入視頻的連續(xù)幀中的對象,并確保相同的對象出現(xiàn)在邊界框中。我們丟棄了具有不準確對象跟蹤的幀。收集每一幀中邊界框的坐標(biāo)。我們使用這些坐標(biāo)來裁剪通過不同方法增強的結(jié)果中的相應(yīng)區(qū)域,并計算連續(xù)幀中對象的平均亮度方差 (ALV) 分數(shù):其中是視頻的幀數(shù),表示第幀邊界框區(qū)域的平均亮度值,表示視頻中所有邊界框區(qū)域的平均亮度值。較低的 ALV 值表明增強視頻的時間相干性更好。 LoLividT測試集的10個視頻平均的不同方法的ALV值如表7所示。每個視頻的不同方法的ALV值可以在補充材料中找到。此外,我們按照[9]在補充材料中繪制它們的亮度曲線。如表 7 所示,TBEFN[20] 在 ALV 值方面獲得了最佳的時間相干性,而 LLNet[1] 和EnlightenGAN [23] 分別排名第二和第三。相比之下,作為表現(xiàn)最差的 ExCNet [24] 的 ALV 值達到了1375.29。這是因為基于零參考學(xué)習(xí)的 ExCNet[24] 的性能對于連續(xù)幀的增強是不穩(wěn)定的。換句話說,ExCNet[24] 可以有效地提高某些幀的亮度,而在其他幀上效果不佳。
4.4 Computational Complexity
在表 8 中,我們比較了不同方法的計算復(fù)雜度,包括運行時、可訓(xùn)練參數(shù)和使用 NVIDA1080Ti GPU 對 32 張大小為1200×900×3 的圖像進行平均的 FLOP。為了公平比較,我們省略了LightenNet [5],因為只有其代碼的 CPU 版本是公開可用的。此外,我們沒有報告 ExCNet[24] 和 RRDNet[26] 的 FLOP,因為數(shù)量取決于輸入圖像(不同的輸入需要不同的迭代次數(shù))。如表 8 所示,Zero-DCE[25] 的運行時間最短,因為它僅通過輕量級網(wǎng)絡(luò)估計幾個曲線參數(shù)。因此,它的可訓(xùn)練參數(shù)和 FLOP 數(shù)量要少得多。此外,LightenNet[5] 的可訓(xùn)練參數(shù)和 FLOP 的數(shù)量是比較方法中最少的。這是因為LightenNet [5] 通過一個由四個卷積層組成的微型網(wǎng)絡(luò)來估計輸入圖像的光照圖。相比之下,LLNet[1] 和 KinD++[54] 的 FLOPs 非常大,分別達到4124.177G 和12238.026G。由于耗時的優(yōu)化過程,基于 SSL 的 ExCNet[24] 和 RRDNet[26] 的運行時間很長。
4.5 Application-Based Evaluation
我們研究了低光圖像增強方法在黑暗中人臉檢測的性能。按照 [25] 中提出的設(shè)置,我們使用 DARKFACE 數(shù)據(jù)集 [73],該數(shù)據(jù)集由在黑暗中拍攝的人臉圖像組成。由于測試集的邊界框不是公開可用的,我們對從訓(xùn)練和驗證集中隨機采樣的 500 張圖像進行評估。在 WIDERFACE 數(shù)據(jù)集 [83] 上訓(xùn)練的雙鏡頭人臉檢測器 (DSFD)[82] 被用作人臉檢測器。我們將不同 LLIE 方法的結(jié)果提供給 DSFD[82],并在圖 9 中描繪了 0.5IoU 閾值下的精度 - 召回 (P-R) 曲線。此外,我們使用評估比較了不同 IoU 閾值下的平均精度 (AP) 表 9 中 DARKFACE 數(shù)據(jù)集 [73] 中提供的工具 3。如圖 9 所示,所有基于深度學(xué)習(xí)的解決方案都提高了黑暗中人臉檢測的性能,表明基于深度學(xué)習(xí)的 LLIE 解決方案在黑暗中人臉檢測的有效性。如表 9 所示,不同 IoU 閾值下表現(xiàn)最佳者的 AP 得分范圍為 0.268 到 0.013,不同 IoU 閾值下的輸入 AP 得分非常低。結(jié)果表明仍有改進的余地。值得注意的是,Retinex-Net[4]、Zero-DCE[25] 和 TBEFN[20] 在黑暗中的人臉檢測方面取得了相對穩(wěn)健的性能。我們在圖 10 中展示了不同方法的視覺結(jié)果。盡管Retinex-Net [4] 在 AP 分數(shù)上的表現(xiàn)優(yōu)于其他方法,但其視覺結(jié)果包含明顯的偽影和不自然的紋理。一般來說,零 DCE[25] 在 AP 分數(shù)和黑暗中人臉檢測的感知質(zhì)量之間取得了很好的平衡。
4.6 Discussion
從實驗結(jié)果中,我們獲得了一些有趣的觀察和見解:
根據(jù)測試數(shù)據(jù)集和評估指標(biāo),不同方法的性能存在顯著差異。就常用測試數(shù)據(jù)集的全參考 IQA 指標(biāo)而言,MBLLEN[3]、KinD++[54] 和 DSLR[21] 通常優(yōu)于其他比較方法。對于手機拍攝的真實世界低光圖像,基于監(jiān)督學(xué)習(xí)的Retinex-Net [4] 和 KinD++ [54] 在非參考 IQA 指標(biāo)中獲得了更好的分數(shù)。對于手機拍攝的真實世界低光視頻,TBEFN[20] 更好地保留了時間相干性。在計算效率方面,LightenNet[5] 和Zero-DCE [25] 表現(xiàn)突出。從黑暗中的人臉檢測方面來看,TBEFN[20]、Retinex-Net[4]和Zero-DCE[25]排名前三。沒有方法總是贏。總體而言,在大多數(shù)情況下,Retinex-Net[4]、[20]、Zero-DCE[25] 和 DSLR[21] 是更好的選擇。
提出的LoLi-Phone 數(shù)據(jù)集的低光圖像和視頻在大多數(shù)方法中都失敗了?,F(xiàn)有方法的泛化能力需要進一步提高。值得注意的是,僅使用平均亮度方差來評估低光視頻增強的不同方法的性能是不夠的。更有效和更全面的評估指標(biāo)將指導(dǎo)弱光視頻增強技術(shù)的發(fā)展走向正確的軌道。
關(guān)于學(xué)習(xí)策略,監(jiān)督學(xué)習(xí)在大多數(shù)情況下取得了更好的性能,但需要大量的計算資源和配對的訓(xùn)練數(shù)據(jù)。相比之下,零樣本學(xué)習(xí)在實際應(yīng)用中更具吸引力,因為它不需要配對或非配對的訓(xùn)練數(shù)據(jù)。因此,基于零樣本學(xué)習(xí)的方法具有更好的泛化能力。然而,基于零樣本學(xué)習(xí)的方法的定量性能不如其他方法。
視覺結(jié)果和定量 IQA 分數(shù)之間存在差距。換句話說,良好的視覺外觀并不總能產(chǎn)生良好的 IQA 分數(shù)。人類感知與IQA分數(shù)之間的關(guān)系值得更多研究。追求更好的視覺感知或定量分數(shù)取決于具體的應(yīng)用。例如,為了向觀察者展示結(jié)果,應(yīng)該更多地關(guān)注視覺感知。相比之下,當(dāng) LLIE 方法應(yīng)用于黑暗中的人臉檢測時,準確性比視覺感知更重要。因此,在比較不同方法時,應(yīng)進行更全面和徹底的比較。
基于深度學(xué)習(xí)的 LLIE 方法有利于在黑暗中進行人臉檢測。這些結(jié)果進一步支持了增強低光圖像和視頻的重要性。然而,與正常光照圖像中人臉檢測的高精度相比,盡管使用了LLIE方法,但在黑暗中人臉檢測的準確率卻極低。
5 FUTURE RESEARCH DIRECTIONS
低光圖像增強是一個具有挑戰(zhàn)性的研究課題。從第 4 節(jié)中介紹的實驗可以看出,仍有改進的余地。我們建議潛在的未來研究方向如下。
有效的學(xué)習(xí)策略
。如前所述,當(dāng)前的 LLIE 模型主要采用監(jiān)督學(xué)習(xí),需要大量配對訓(xùn)練數(shù)據(jù),并且可能在特定數(shù)據(jù)集上過擬合。盡管一些研究人員試圖將無監(jiān)督學(xué)習(xí)(例如對抗性學(xué)習(xí))引入 LLIE,但 LLIE 與這些學(xué)習(xí)策略之間的內(nèi)在關(guān)系尚不清楚,它們在 LLIE 中的有效性需要進一步改進。零樣本學(xué)習(xí)已在真實場景中顯示出強大的性能,同時不需要配對訓(xùn)練數(shù)據(jù)。獨特的優(yōu)勢表明零樣本學(xué)習(xí)是一個潛在的研究方向,特別是在零參考損失、深度先驗和優(yōu)化策略的制定方面。
專門的網(wǎng)絡(luò)結(jié)構(gòu)
。網(wǎng)絡(luò)結(jié)構(gòu)可以顯著影響增強性能。如前7所述,大多數(shù) LLIE 深度模型采用 U-Net 或類似 U-Net 的結(jié)構(gòu)。盡管它們在某些情況下取得了可喜的性能,但仍然缺乏研究這種編碼器-解碼器網(wǎng)絡(luò)結(jié)構(gòu)是否最適合 LLIE 任務(wù)。由于參數(shù)空間大,一些網(wǎng)絡(luò)結(jié)構(gòu)需要高內(nèi)存占用和長推理時間。這樣的網(wǎng)絡(luò)結(jié)構(gòu)對于實際應(yīng)用來說是不可接受的。因此,考慮到光照不均勻、像素值小、噪聲抑制和顏色恒定等弱光圖像的特點,研究一種更有效的 LLIE 網(wǎng)絡(luò)結(jié)構(gòu)是值得的。人們還可以通過考慮低光圖像的局部相似性或考慮更有效的操作(例如深度可分離卷積層[84]和自校準卷積[85])來設(shè)計更有效的網(wǎng)絡(luò)結(jié)構(gòu)。可以考慮神經(jīng)架構(gòu)搜索(NAS)技術(shù)[86]、[87]以獲得更有效和高效的LLIE網(wǎng)絡(luò)結(jié)構(gòu)。將變壓器架構(gòu) [88]、[89] 改編為 LLIE 可能是一個潛在且有趣的研究方向。
損失函數(shù)
。損失函數(shù)約束輸入圖像和ground-truth之間的關(guān)系,并推動深度網(wǎng)絡(luò)的優(yōu)化。在 LLIE 中,常用的損失函數(shù)是從相關(guān)的視覺任務(wù)中借用的。沒有專門的損失函數(shù)來指導(dǎo)弱光視頻增強網(wǎng)絡(luò)的優(yōu)化。因此,需要設(shè)計更適合 LLIE 的損失函數(shù)。此外,最近的研究揭示了使用深度神經(jīng)網(wǎng)絡(luò)來近似人類對圖像質(zhì)量的視覺感知的可能性 [90]、[91]。這些思想和基礎(chǔ)理論可用于指導(dǎo)弱光增強網(wǎng)絡(luò)的適當(dāng)損失函數(shù)的設(shè)計。
真實的訓(xùn)練數(shù)據(jù)
。盡管 LLIE 有多個訓(xùn)練數(shù)據(jù)集,但它們的真實性、規(guī)模和多樣性落后于真正的弱光條件。因此,如第 4 節(jié)所示,當(dāng)前的 LLIE 深度模型在遇到在現(xiàn)實世界場景中捕獲的低光圖像時無法達到令人滿意的性能。需要更多的努力來研究大規(guī)模和多樣化的現(xiàn)實世界配對 LLIE 訓(xùn)練數(shù)據(jù)集的集合或生成更真實的合成數(shù)據(jù)。
標(biāo)準測試數(shù)據(jù)
。目前,還沒有公認的 LLIE 評估基準。研究人員更喜歡選擇自己的測試數(shù)據(jù),這些數(shù)據(jù)可能會偏向于他們提出的方法。盡管一些研究人員留下了一些配對數(shù)據(jù)作為測試數(shù)據(jù),但訓(xùn)練和測試分區(qū)的劃分在文獻中大多是臨時的。因此,在不同方法之間進行公平比較通常是費力的,如果不是不可能的話。此外,一些測試數(shù)據(jù)要么易于處理,要么最初不是為弱光增強而收集的。需要有一個標(biāo)準的低光圖像和視頻測試數(shù)據(jù)集,其中包括大量具有相應(yīng)groundtruth的測試樣本,涵蓋多種場景和具有挑戰(zhàn)性的光照條件。
特定于任務(wù)的評估指標(biāo)
。 LLIE中常用的評價指標(biāo)可以在一定程度上反映圖像質(zhì)量。然而,如何衡量 LLIE 方法增強結(jié)果的好壞仍然挑戰(zhàn)當(dāng)前的 IQA 指標(biāo),特別是對于非參考測量。此外,當(dāng)前的 IQA 指標(biāo)要么側(cè)重于人類視覺感知,例如主觀質(zhì)量,要么強調(diào)機器感知,例如對高級視覺任務(wù)的影響。需要一種同時考慮人類感知和機器感知的評估指標(biāo)。因此,預(yù)計該研究方向?qū)㈤_展更多工作,努力為 LLIE 設(shè)計更準確和特定任務(wù)的評估指標(biāo)。
強大的泛化能力
。觀察真實世界測試數(shù)據(jù)的實驗結(jié)果,大多數(shù)方法由于泛化能力有限而失敗。泛化能力差是由合成訓(xùn)練數(shù)據(jù)、小規(guī)模訓(xùn)練數(shù)據(jù)、無效的網(wǎng)絡(luò)結(jié)構(gòu)、不切實際的假設(shè)和不準確的先驗等因素造成的。探索提高基于深度學(xué)習(xí)的 LLIE 模型泛化能力的方法非常重要。
低光視頻增強的擴展
。與視頻去模糊 [92]、視頻去噪 [93] 和視頻超分辨率 [94] 等其他低級視覺任務(wù)中視頻增強的快速發(fā)展不同,低光視頻增強受到的關(guān)注較少。將現(xiàn)有的LLIE 方法直接應(yīng)用于視頻通常會導(dǎo)致不滿意的結(jié)果和閃爍的偽影。需要更多的努力來有效地消除視覺閃爍,利用相鄰幀之間的時間信息,并加快增強速度。
整合語義信息
。語義信息對于弱光增強至關(guān)重要。它指導(dǎo)網(wǎng)絡(luò)在增強過程中區(qū)分不同的區(qū)域。沒有訪問語義先驗的網(wǎng)絡(luò)很容易偏離區(qū)域的原始顏色,例如,在增強后將黑色頭發(fā)變成灰色。因此,將語義先驗整合到 LLIE 模型中是一個很有前景的研究方向。在圖像超分辨率 [95]、[96] 和人臉恢復(fù) [97] 上也進行了類似的工作。
審核編輯 黃宇
-
圖像增強
+關(guān)注
關(guān)注
0文章
54瀏覽量
10037 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5503瀏覽量
121175
發(fā)布評論請先 登錄
相關(guān)推薦
評論