0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度預(yù)測(cè)模型推斷移動(dòng)中的人的場(chǎng)景深度

電子工程師 ? 來(lái)源:YXQ ? 2019-05-27 11:23 ? 次閱讀

谷歌近日推出了在計(jì)算機(jī)視覺(jué)領(lǐng)域模擬重建人類視覺(jué)的新模型,與以往方法不同的是,新模型利用AI,通過(guò)普通Youtube視頻預(yù)測(cè)深度圖,可以在場(chǎng)景內(nèi)的攝像頭和人同時(shí)運(yùn)動(dòng)的復(fù)雜情況下生成自然視頻。

人類的視覺(jué)系統(tǒng)具有非凡的能力,可以從2D投影中理解3D世界。即使在包含多個(gè)移動(dòng)物體的復(fù)雜環(huán)境中,人也能夠?qū)ξ矬w的幾何形狀和深度的排序進(jìn)行可行的解釋。長(zhǎng)期以來(lái),計(jì)算機(jī)視覺(jué)領(lǐng)域都在研究如何通過(guò)2D圖像數(shù)據(jù)計(jì)算重建場(chǎng)景的幾何特征,來(lái)實(shí)現(xiàn)和人類類似的能力,但在許多情況下,仍然難以實(shí)現(xiàn)具備充分魯棒性的重建。

當(dāng)攝像頭和場(chǎng)景中的物體都在自由移動(dòng)時(shí),是實(shí)現(xiàn)重建的最困難的情況。這種情況混淆了基于三角測(cè)量的傳統(tǒng)3D重建算法,該算法假設(shè)可以同時(shí)從至少兩個(gè)不同的觀察點(diǎn)觀察到相同的對(duì)象。滿足這個(gè)假設(shè)需要一個(gè)多攝像頭陣列,或者單攝像頭移動(dòng),但場(chǎng)景目標(biāo)本身是靜止?fàn)顟B(tài)。因此,現(xiàn)有的大多數(shù)方法要么需要過(guò)濾掉移動(dòng)的目標(biāo)(將移動(dòng)目標(biāo)的深度固定為“零”),要么直接忽略移動(dòng)目標(biāo)(會(huì)導(dǎo)致深度值發(fā)生錯(cuò)誤)。

左圖:傳統(tǒng)的立體設(shè)置假設(shè)至少有兩個(gè)觀察點(diǎn)在同時(shí)捕捉場(chǎng)景。右圖:我們考慮攝像頭和拍攝對(duì)象都在移動(dòng)的情況。

我們通過(guò)基于深度學(xué)習(xí)的方法來(lái)解決這個(gè)基本問(wèn)題,該方法可以從普通視頻中生成深度圖,場(chǎng)景中的攝像頭和主體目標(biāo)都可以自由移動(dòng)。模型從數(shù)據(jù)中學(xué)習(xí)人體姿勢(shì)和形狀的先驗(yàn)知識(shí),無(wú)需直接3D三角測(cè)量。盡管最近使用機(jī)器學(xué)習(xí)進(jìn)行深度預(yù)測(cè)逐漸興起,但這項(xiàng)工作是第一個(gè)針對(duì)同時(shí)在攝像頭和目標(biāo)都在運(yùn)動(dòng)的狀態(tài)下的基于學(xué)習(xí)的方法。

本研究中的觀察目標(biāo)是人類,人類是增強(qiáng)現(xiàn)實(shí)和3D視頻效果的有趣目標(biāo)。

我們的模型可以預(yù)測(cè)深度圖(右圖,離攝像頭越近,圖中越亮),場(chǎng)景中的人和攝像頭都在自由移動(dòng)。

訓(xùn)練數(shù)據(jù)

我們以監(jiān)督學(xué)習(xí)的方式訓(xùn)練深度預(yù)測(cè)模型,該模型需要通過(guò)移動(dòng)的攝像頭捕獲的自然場(chǎng)景視頻以及精確的深度圖。關(guān)鍵問(wèn)題是從何處獲取此類數(shù)據(jù)。綜合生成數(shù)據(jù)需要對(duì)各種場(chǎng)景和自然人類行為進(jìn)行逼真的建模和渲染,這是很困難的任務(wù)。

此外,針對(duì)這樣的數(shù)據(jù)訓(xùn)練的模型可能難以推廣到真實(shí)場(chǎng)景中。另一種方法可能是用RGBD傳感器(如微軟的Kinect)記錄真實(shí)場(chǎng)景,但深度傳感器通常僅限于室內(nèi)環(huán)境,而且要面臨3D重建上的一系列問(wèn)題。

我們利用現(xiàn)有的數(shù)據(jù)來(lái)進(jìn)行監(jiān)督學(xué)習(xí):即YouTube視頻,視頻中的人們通過(guò)自己定格在各種自然姿勢(shì),模仿人體模特效果,而手持?jǐn)z像機(jī)則在現(xiàn)場(chǎng)記錄。

因?yàn)檎麄€(gè)場(chǎng)景是靜止的(只有攝像機(jī)在移動(dòng)),所以基于三角測(cè)量的方法是行得通的,可以獲得包括其中人物在內(nèi)的整個(gè)場(chǎng)景的精確深度圖。我們收集了大約2000個(gè)這樣的視頻,涵蓋了各種逼真的場(chǎng)景,場(chǎng)景中的人按照不同的分組配置自然分布。

人們?cè)跀z像頭在場(chǎng)景中移動(dòng)時(shí)模仿人體模特,我們將其作為訓(xùn)練數(shù)據(jù)。我們使用傳統(tǒng)的MVS算法來(lái)估計(jì)深度,并在深度預(yù)測(cè)模型的訓(xùn)練中將其用于監(jiān)督。

推斷移動(dòng)中的人的場(chǎng)景深度

Mannequin挑戰(zhàn)視頻對(duì)移動(dòng)中的攝像機(jī)和“定格”的人進(jìn)行深度監(jiān)控,但我們的目標(biāo)是利用移動(dòng)的攝像頭和移動(dòng)的人來(lái)處理視頻。我們需要構(gòu)建網(wǎng)絡(luò)輸入來(lái)彌補(bǔ)這一差距。

一種可能的方法是為視頻的每一幀都進(jìn)行深度圖推斷(也就是對(duì)模型的輸入相當(dāng)于單幀圖像)。雖然這種模型改進(jìn)了用于深度預(yù)測(cè)的最先進(jìn)的單幀方法,但是我們可以通過(guò)來(lái)自多幀的信息組合來(lái)進(jìn)一步改善結(jié)果。比如運(yùn)動(dòng)視差,即兩個(gè)不同視點(diǎn)之間的靜態(tài)物體的明顯的相對(duì)運(yùn)動(dòng),就對(duì)深度推斷提供了有力線索。為了充分利用這些信息,我們計(jì)算了視頻中每個(gè)輸入幀和另一幀之間的2D光流,用它表示兩幀之間的像素位移。

這些光流場(chǎng)取決于場(chǎng)景的深度和攝像頭的相對(duì)位置。但是,由于攝像頭位置是已知的,可以從流場(chǎng)中去除二者之間的依賴關(guān)系,由此生成初始深度圖。此初始深度僅對(duì)靜態(tài)場(chǎng)景區(qū)域有效。為了在測(cè)試時(shí)處理運(yùn)動(dòng)中的人,可以利用人工分割網(wǎng)絡(luò)來(lái)蓋住初始深度圖中的人類區(qū)域。這樣,我們網(wǎng)絡(luò)的完整輸入包括:RGB圖像、蓋住人類的區(qū)域,以及基于視差的遮蓋后的深度圖。

深度預(yù)測(cè)網(wǎng)絡(luò):模型的輸入包括RGB圖像(第t幀),人類區(qū)域的遮蓋和非人類區(qū)域的初始深度,根據(jù)輸入幀與另一個(gè)之間的運(yùn)動(dòng)視差(光流)計(jì)算視頻中的幀。模型輸出第t幀的完整深度圖。由MVS算法計(jì)算出的深度圖負(fù)責(zé)對(duì)訓(xùn)練過(guò)程的監(jiān)督。

該網(wǎng)絡(luò)的作用是“修復(fù)”人與場(chǎng)景的深度值,并在其他地方細(xì)化深度值。因?yàn)槿祟惖耐庑魏痛笮√卣鲙缀跻恢拢W(wǎng)絡(luò)可以通過(guò)觀察多個(gè)訓(xùn)練樣例,在模型內(nèi)部學(xué)習(xí)這些先驗(yàn)知識(shí)。經(jīng)過(guò)訓(xùn)練后,模型就可以處理任意攝像頭和人體同時(shí)運(yùn)動(dòng)的視頻。

來(lái)看一段介紹視頻:

以下是基于視頻的深度預(yù)測(cè)模型結(jié)果的一些示例,并與最近基于最新學(xué)習(xí)的方法做了比較。

上圖:基于學(xué)習(xí)的單眼深度預(yù)測(cè)方法。 下圖:基于學(xué)習(xí)的立體方法(DeMoN)和我們的估計(jì)深度圖的結(jié)果。

使用深度圖處理3D視頻效果

我們預(yù)測(cè)的深度圖可用于產(chǎn)生一系列3D感知視頻效

使用估計(jì)深度圖產(chǎn)生的散景效果

我們的深度圖也可用于其他方面的應(yīng)用,包括利用單眼視頻生成立體視頻,將合成CG對(duì)象插入場(chǎng)景,還可以在視頻的其他幀中顯示內(nèi)容的情況下進(jìn)行場(chǎng)景區(qū)域的填充。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6177

    瀏覽量

    105686
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5510

    瀏覽量

    121340

原文標(biāo)題:Google AI:機(jī)器學(xué)習(xí)預(yù)測(cè)場(chǎng)景深度圖,模擬人眼更進(jìn)一步

文章出處:【微信號(hào):smartman163,微信公眾號(hào):網(wǎng)易智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?285次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?1033次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    支持不同的數(shù)據(jù)精度、量化和激活函數(shù)等。這種靈活性使其能夠適應(yīng)各種深度學(xué)習(xí)任務(wù),為不同的應(yīng)用場(chǎng)景提供定制化的解決方案。 ? 低功耗:FPGA 是可編程的,可以在設(shè)計(jì)僅使用所需的計(jì)算資源,從而避免不必要
    發(fā)表于 09-27 20:53

    深度學(xué)習(xí)模型有哪些應(yīng)用場(chǎng)景

    深度學(xué)習(xí)模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個(gè)應(yīng)用場(chǎng)景展現(xiàn)出其巨大的潛力和價(jià)值。這些應(yīng)用不僅改變了我們的日常生活,還推動(dòng)了科技進(jìn)步和產(chǎn)業(yè)升級(jí)。以下將詳細(xì)探討
    的頭像 發(fā)表于 07-16 18:25 ?2127次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型量化的基本方法

    盡量保持模型的性能。這一技術(shù)通過(guò)降低模型參數(shù)的位數(shù)來(lái)顯著減小模型的大小,加速推理過(guò)程,并降低能耗,從而有助于將深度學(xué)習(xí)模型部署到邊緣計(jì)算設(shè)備
    的頭像 發(fā)表于 07-15 11:26 ?721次閱讀

    深度學(xué)習(xí)模型的過(guò)擬合與正則化

    深度學(xué)習(xí)的廣闊領(lǐng)域中,模型訓(xùn)練的核心目標(biāo)之一是實(shí)現(xiàn)對(duì)未知數(shù)據(jù)的準(zhǔn)確預(yù)測(cè)。然而,在實(shí)際應(yīng)用,我們經(jīng)常會(huì)遇到一個(gè)問(wèn)題——過(guò)擬合(Overfitting)。過(guò)擬合是指
    的頭像 發(fā)表于 07-09 15:56 ?1054次閱讀

    深度學(xué)習(xí)的時(shí)間序列分類方法

    的發(fā)展,基于深度學(xué)習(xí)的TSC方法逐漸展現(xiàn)出其強(qiáng)大的自動(dòng)特征提取和分類能力。本文將從多個(gè)角度對(duì)深度學(xué)習(xí)在時(shí)間序列分類的應(yīng)用進(jìn)行綜述,探討常用的深度學(xué)習(xí)
    的頭像 發(fā)表于 07-09 15:54 ?1072次閱讀

    深度學(xué)習(xí)的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用往往難以實(shí)現(xiàn)。因此,無(wú)監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)扮演著越來(lái)越重要的角色。本文旨在綜述深度學(xué)習(xí)的無(wú)監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對(duì)抗網(wǎng)絡(luò)、
    的頭像 發(fā)表于 07-09 10:50 ?846次閱讀

    深度學(xué)習(xí)模型權(quán)重

    深度學(xué)習(xí)這一充滿無(wú)限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是模型智能的源泉。本文將從
    的頭像 發(fā)表于 07-04 11:49 ?1596次閱讀

    深度學(xué)習(xí)的典型模型和訓(xùn)練過(guò)程

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,近年來(lái)在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等多個(gè)領(lǐng)域取得了顯著進(jìn)展。其核心在于通過(guò)構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)自動(dòng)學(xué)習(xí)并提取特征,進(jìn)而實(shí)現(xiàn)高效準(zhǔn)確的
    的頭像 發(fā)表于 07-03 16:06 ?1600次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    ,其核心是構(gòu)建具有多層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,以實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)的高效表示和處理。在眾多深度學(xué)習(xí)模型,卷積神經(jīng)網(wǎng)絡(luò)(CNN)因其在圖像識(shí)別等領(lǐng)域的卓越性能而備受關(guān)注。CNN通過(guò)引入卷積層和
    的頭像 發(fā)表于 07-02 10:11 ?9849次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度學(xué)習(xí)模型,本質(zhì)上是通過(guò)優(yōu)化算法調(diào)整模型參數(shù),
    的頭像 發(fā)表于 07-01 16:13 ?1400次閱讀

    深度學(xué)習(xí)的模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過(guò)程,往往會(huì)遇到各種問(wèn)題和挑戰(zhàn),如過(guò)擬合、欠擬合、梯度消失或爆炸等。因此,對(duì)深度學(xué)習(xí)模型進(jìn)行優(yōu)化與調(diào)試是確保其性能優(yōu)越的
    的頭像 發(fā)表于 07-01 11:41 ?907次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】揭開(kāi)大語(yǔ)言模型的面紗

    復(fù)用和優(yōu)化效果。這些趨勢(shì)共同推動(dòng)了大語(yǔ)言模型深度學(xué)習(xí)研究和應(yīng)用的重要地位。數(shù)據(jù)效應(yīng)指出大型模型需要更多數(shù)據(jù)進(jìn)行訓(xùn)練,以提高性能。其次,表示能力使得大語(yǔ)言
    發(fā)表于 05-04 23:55

    FPGA在深度學(xué)習(xí)應(yīng)用或?qū)⑷〈鶪PU

    、筆記本電腦或機(jī)架式服務(wù)器上訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),這不是什么大問(wèn)題。但是,許多部署深度學(xué)習(xí)模型的環(huán)境對(duì) GPU 并不友好,比如自動(dòng)駕駛汽車、工廠、機(jī)器人和許多智慧城市環(huán)境,在這些環(huán)境硬件必須忍受熱、灰塵、濕度
    發(fā)表于 03-21 15:19