0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于特征深度學習重建網(wǎng)絡(luò)來恢復(fù)通暢的圖像

lhl545545 ? 來源:計算機視覺芯片設(shè)計 ? 作者:計算機視覺芯片設(shè) ? 2022-08-18 11:18 ? 次閱讀

今年來溫哥華參加的siggraph也是第二次參加這種檔次的會議,我比較關(guān)注計算影像學。

1. Centimeter-Wave Free-Space Time-of-Flight Imaging

深度相機正在成為一種基石模式,具有直接或間接依賴于測量深度的多種應(yīng)用,包括個人設(shè)備、機器人自動駕駛汽車。盡管飛行時間 (ToF) 方法推動了這些應(yīng)用,但 ToF 方法的精度和魯棒性受到依賴于光子時間標記或光轉(zhuǎn)換后調(diào)制的限制。成功的光調(diào)制方法有大耦合損耗的受限光纖耦合調(diào)制或亞厘米范圍的干涉調(diào)制,干涉方法與ToF方法之間的精度差距超過三個數(shù)量級。在這項工作中,我們縮小了這一差距,并提出了一種用于光轉(zhuǎn)換前的全光學自由空間相關(guān)的計算成像方法,該方法通過傳統(tǒng)的硅強度傳感器實現(xiàn)了微米級深度分辨率,并對表面反射率和環(huán)境光具有魯棒性。為此,我們解決了兩個技術(shù)挑戰(zhàn):以 GHz 速率調(diào)制和計算相位展開。我們提出了一種具有諧振偏振調(diào)制器的成像方法,并設(shè)計了一種新穎的光學雙通倍頻,可在超過 10GHz 時實現(xiàn)高調(diào)制對比度。同時,厘米波調(diào)制以及較小的調(diào)制帶寬使現(xiàn)有的相位展開方法無效。我們使用一種神經(jīng)相位展開方法來解決這個問題,該方法利用相鄰的包裹通常高度相關(guān)。我們在模擬和實驗中驗證了所提出的方法,它達到了微米級的深度精度。我們展示了獨立于表面紋理和環(huán)境光的精確深度感應(yīng),并與現(xiàn)有的模擬解調(diào)方法進行了比較,我們在所有測試場景中都表現(xiàn)出色。

2. Blending Camera and 77 GHz Radar Sensing for Equitable, Robust Plethysmography.

隨著因 COVID-19 大流行而導(dǎo)致的非接觸式生命體征傳感的復(fù)蘇,遠程心率監(jiān)測已獲得顯著的重視。許多現(xiàn)有方法使用相機;然而,之前的工作顯示較深膚色的性能損失。在本文中,我們通過光傳輸分析表明,相機模式從根本上偏向于較深的膚色。我們建議通過多模態(tài)融合與互補和更公平的模態(tài)——雷達來減少這種偏差。通過一種新穎的面向去偏的融合框架,我們在所有測試基線上實現(xiàn)了性能提升,并在 RGB 模態(tài)上實現(xiàn)了膚色公平性改進。此外,與基于雷達的方法相比,性能得到了改進,但公平性方面的權(quán)衡很小。我們還開源了最大的多模式遠程心率估計數(shù)據(jù)集,其中包括配對相機和雷達測量,重點是膚色表示。

33a915c6-19ee-11ed-ba43-dac502259ad0.png

3. Seeing Through Obstructions With Diffractive Cloaking

33da3ec6-19ee-11ed-ba43-dac502259ad0.png

我們提出了一種計算單目相機,它可以在光學上隱藏不需要的障礙物,例如鏡頭蓋玻璃上的雨滴或污漬,或相機附近的柵欄。我們沒有在捕獲后修復(fù)被遮擋的信息,而是學習了一個定制的衍射光學元件,當它放置在相機鏡頭前時,它充當了一個與深度相關(guān)的散射體。學習到的光學元件位于現(xiàn)有相機設(shè)置的孔徑平面上,并產(chǎn)生一個點擴散函數(shù),為近距離物體提供大空間支持,將光線從焦點處散射出去。同時在不增加相機占用空間的情況下保持長距離的空間分辨率。結(jié)合光學元件,我們共同優(yōu)化了一個基于特征的深度學習重建網(wǎng)絡(luò)來恢復(fù)通暢的圖像。

4. Optical Aberrations Correction in Postprocessing Using Imaging Simulation

隨著移動攝影的不斷普及,人們正在投入大量精力來重建退化的圖像。由于在鏡頭設(shè)計過程中無法避免的光學像差的空間變化,最近的商用相機已將其中一些校正任務(wù)從光學設(shè)計轉(zhuǎn)移到后處理系統(tǒng)。然而,在不涉及光學參數(shù)的情況下,這些系統(tǒng)只能實現(xiàn)有限的像差校正。

在這項工作中,我們提出了一種實用的方法來恢復(fù)由光學像差引起的退化。具體來說,我們建立了基于我們提出的光學點擴散函數(shù)模型的成像模擬系統(tǒng)。給定相機的光學參數(shù),它會生成這些特定設(shè)備的成像結(jié)果。為了進行恢復(fù),我們在成像模擬系統(tǒng)生成的合成數(shù)據(jù)對上設(shè)計了一個空間自適應(yīng)網(wǎng)絡(luò)模型,消除了通過大量拍攝和配準捕獲訓練數(shù)據(jù)的開銷。

此外,我們分別使用定制的數(shù)字單鏡頭反光相機鏡頭和 HUAWEI HONOR 20 在模擬和實驗中全面評估了所提出的方法。實驗表明,我們的解決方案成功地消除了空間變化的模糊和色散。與最先進的去模糊方法相比,所提出的方法以更低的計算開銷實現(xiàn)了更好的結(jié)果。此外,重建技術(shù)沒有引入人工紋理,便于移植到當前的商用相機中。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7576

    瀏覽量

    88910
  • 影像
    +關(guān)注

    關(guān)注

    0

    文章

    130

    瀏覽量

    14509
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5506

    瀏覽量

    121255

原文標題:2022 Siggraph:計算影像學(1)

文章出處:【微信號:計算機視覺芯片設(shè)計,微信公眾號:計算機視覺芯片設(shè)計】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    通過深度學習圖像三維物體重建研究方案

    假設(shè) 為物體的一張或多張RGB圖片。三維重建可以總結(jié)為一個學習預(yù)測算子的過程,輸入圖像到該算子可得到一個和物體相似的模型。因此重建的目標函數(shù)為,其中為算子的參數(shù),為
    發(fā)表于 02-13 09:31 ?782次閱讀

    深度學習介紹

    網(wǎng)絡(luò)最終實現(xiàn)更通用的識別。這些多層的優(yōu)點是各種抽象層次的學習特征。例如,若訓練深度卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 11-11 07:55

    基于深度圖像重建Matlab代碼

    本文檔內(nèi)容介紹了基于深度圖像重建Matlab代碼,供網(wǎng)友參考。
    發(fā)表于 09-15 10:03 ?21次下載
    基于<b class='flag-5'>深度圖像</b><b class='flag-5'>重建</b>Matlab代碼

    基于深度學習的多尺幅深度網(wǎng)絡(luò)監(jiān)督模型

    針對場景標注中如何產(chǎn)生良好的內(nèi)部視覺信息表達和有效利用上下文語義信息兩個至關(guān)重要的問題,提出一種基于深度學習的多尺度深度網(wǎng)絡(luò)監(jiān)督模型。與傳統(tǒng)多尺度方法不同,模型主要由兩個
    發(fā)表于 11-28 14:22 ?0次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的多尺幅<b class='flag-5'>深度</b><b class='flag-5'>網(wǎng)絡(luò)</b>監(jiān)督模型

    數(shù)據(jù)外補償?shù)?b class='flag-5'>深度網(wǎng)絡(luò)超分辨率重建

    分辨率重建結(jié)果.為了克服歧義性造成的高頻細節(jié)損失。本文提出了一種基于深度網(wǎng)絡(luò)。利用在線檢索的數(shù)據(jù)進行高頻信息補償?shù)?b class='flag-5'>圖像超分辨率重建算法.該方
    發(fā)表于 12-15 14:34 ?0次下載

    基于鄰域特征學習的單幅圖像超分辨重建

    針對圖像重建過程中待插值點灰度估計不準確的問題,提出一種基于鄰域特征學習的單幅圖像超分辨回歸分析方法。在輸入低分辨率
    發(fā)表于 02-07 15:59 ?1次下載
    基于鄰域<b class='flag-5'>特征</b><b class='flag-5'>學習</b>的單幅<b class='flag-5'>圖像</b>超分辨<b class='flag-5'>重建</b>

    一種新的目標分類特征深度學習模型

    受限和高識別率要求,提取圖像的局部方向梯度直方圖( HOG)特征,構(gòu)建稀疏自編碼器棧對HOG特征進行深層次編碼,設(shè)計Softmax多分類器對所抽取的特征進行分類。在
    發(fā)表于 03-20 17:30 ?0次下載
    一種新的目標分類<b class='flag-5'>特征</b><b class='flag-5'>深度</b><b class='flag-5'>學習</b>模型

    基于深度學習圖像塊型超分辨重建的經(jīng)典論文進行關(guān)鍵技術(shù)點分析

    基于Per-Pixel Loss的超分辨重建網(wǎng)絡(luò)目標在于直接最小化高清原圖與超分辨重建圖像之間的差異,使得超分辨重建圖像逐步逼近原圖的清晰效
    的頭像 發(fā)表于 03-26 11:15 ?6174次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的<b class='flag-5'>圖像</b>塊型超分辨<b class='flag-5'>重建</b>的經(jīng)典論文進行關(guān)鍵技術(shù)點分析

    圖像恢復(fù)這個任務(wù),如何使用深度圖像先驗解決此任務(wù)

    深度卷積網(wǎng)絡(luò)因其能夠從大量圖像數(shù)據(jù)集中學習而獲得成功。 Dmitry Ulyanov的論文“Deep Image Prior”表明,為了解決像圖像
    的頭像 發(fā)表于 02-18 16:38 ?4962次閱讀

    深度學習不是萬靈藥 神經(jīng)網(wǎng)絡(luò)3D建模其實只是圖像識別

    隨著深度學習的大熱,許多研究都致力于如何從單張圖片生成3D模型。但近期一項研究表明,幾乎所有基于深度神經(jīng)網(wǎng)絡(luò)的3D中重建工作,實際上并不是
    的頭像 發(fā)表于 06-17 11:21 ?4731次閱讀

    深度學習時代的為基于圖像的三維重建提供了新的可能

    這些方法在近年來取得了令人矚目的效果,在通用物體重建和類似人臉的特殊物體重建上都取得了不錯的結(jié)果。接下來我們將從重建問題的流程,三維表示,基于不同表示的重建方法、模型架構(gòu)、數(shù)據(jù)集以及訓
    的頭像 發(fā)表于 08-02 15:04 ?6102次閱讀

    一種多層級特征融合就的深度卷積網(wǎng)絡(luò)

    使用Resnetl01網(wǎng)絡(luò)結(jié)構(gòu)將圖像轉(zhuǎn)換為高維特征圖,解碼器使用上采樣卷積模塊從高維特征圖中重建深度圖
    發(fā)表于 03-16 09:21 ?7次下載
    一種多層級<b class='flag-5'>特征</b>融合就的<b class='flag-5'>深度</b>卷積<b class='flag-5'>網(wǎng)絡(luò)</b>

    基于特征圖注意力機制的圖像超分辨重建網(wǎng)絡(luò)模型

    圖像超分辨率重建中的高頻分量通常包含較多輪廓、紋理等細節(jié)信息,為更好地處理特征圖中的高頻分量與低頻分量,實現(xiàn)自適應(yīng)調(diào)整信道特征,提岀一種基于特征
    發(fā)表于 03-22 14:45 ?22次下載
    基于<b class='flag-5'>特征</b>圖注意力機制的<b class='flag-5'>圖像</b>超分辨<b class='flag-5'>重建網(wǎng)絡(luò)</b>模型

    基于復(fù)合的深度神經(jīng)網(wǎng)絡(luò)圖像超分辨率重建

    針對現(xiàn)有單圖像超分辨率重建時主要采用的簡單鏈式堆疊的單一網(wǎng)絡(luò)存在層間聯(lián)系弱、網(wǎng)絡(luò)關(guān)注點單一以及分層特征不能充分利用等問題,提出了一種復(fù)合的
    發(fā)表于 04-13 10:35 ?5次下載
    基于復(fù)合的<b class='flag-5'>深度</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>的<b class='flag-5'>圖像</b>超分辨率<b class='flag-5'>重建</b>

    基于改進殘差網(wǎng)絡(luò)的水下圖像重建修復(fù)

    ,該方法將網(wǎng)絡(luò)中的殘差密集塊和自適應(yīng)機制進行融合,有效解決深度學習網(wǎng)絡(luò)中經(jīng)常遇到的梯度爆炸冋題,冋時能夠抑制無用信息的學習,充分利用重要特征
    發(fā)表于 06-17 15:37 ?10次下載