谷歌近日推出了在計算機視覺領(lǐng)域模擬重建人類視覺的新模型,與以往方法不同的是,新模型利用AI,通過普通Youtube視頻預(yù)測深度圖,可以在場景內(nèi)的攝像頭和人同時運動的復(fù)雜情況下生成自然視頻。
人類的視覺系統(tǒng)具有非凡的能力,可以從2D投影中理解3D世界。即使在包含多個移動物體的復(fù)雜環(huán)境中,人也能夠?qū)ξ矬w的幾何形狀和深度的排序進行可行的解釋。長期以來,計算機視覺領(lǐng)域都在研究如何通過2D圖像數(shù)據(jù)計算重建場景的幾何特征,來實現(xiàn)和人類類似的能力,但在許多情況下,仍然難以實現(xiàn)具備充分魯棒性的重建。
當(dāng)攝像頭和場景中的物體都在自由移動時,是實現(xiàn)重建的最困難的情況。這種情況混淆了基于三角測量的傳統(tǒng)3D重建算法,該算法假設(shè)可以同時從至少兩個不同的觀察點觀察到相同的對象。滿足這個假設(shè)需要一個多攝像頭陣列,或者單攝像頭移動,但場景目標本身是靜止狀態(tài)。因此,現(xiàn)有的大多數(shù)方法要么需要過濾掉移動的目標(將移動目標的深度固定為“零”),要么直接忽略移動目標(會導(dǎo)致深度值發(fā)生錯誤)。
左圖:傳統(tǒng)的立體設(shè)置假設(shè)至少有兩個觀察點在同時捕捉場景。右圖:我們考慮攝像頭和拍攝對象都在移動的情況。
我們通過基于深度學(xué)習(xí)的方法來解決這個基本問題,該方法可以從普通視頻中生成深度圖,場景中的攝像頭和主體目標都可以自由移動。模型從數(shù)據(jù)中學(xué)習(xí)人體姿勢和形狀的先驗知識,無需直接3D三角測量。盡管最近使用機器學(xué)習(xí)進行深度預(yù)測逐漸興起,但這項工作是第一個針對同時在攝像頭和目標都在運動的狀態(tài)下的基于學(xué)習(xí)的方法。
本研究中的觀察目標是人類,人類是增強現(xiàn)實和3D視頻效果的有趣目標。
我們的模型可以預(yù)測深度圖(右圖,離攝像頭越近,圖中越亮),場景中的人和攝像頭都在自由移動。
訓(xùn)練數(shù)據(jù)
我們以監(jiān)督學(xué)習(xí)的方式訓(xùn)練深度預(yù)測模型,該模型需要通過移動的攝像頭捕獲的自然場景視頻以及精確的深度圖。關(guān)鍵問題是從何處獲取此類數(shù)據(jù)。綜合生成數(shù)據(jù)需要對各種場景和自然人類行為進行逼真的建模和渲染,這是很困難的任務(wù)。
此外,針對這樣的數(shù)據(jù)訓(xùn)練的模型可能難以推廣到真實場景中。另一種方法可能是用RGBD傳感器(如微軟的Kinect)記錄真實場景,但深度傳感器通常僅限于室內(nèi)環(huán)境,而且要面臨3D重建上的一系列問題。
我們利用現(xiàn)有的數(shù)據(jù)來進行監(jiān)督學(xué)習(xí):即YouTube視頻,視頻中的人們通過自己定格在各種自然姿勢,模仿人體模特效果,而手持攝像機則在現(xiàn)場記錄。
因為整個場景是靜止的(只有攝像機在移動),所以基于三角測量的方法是行得通的,可以獲得包括其中人物在內(nèi)的整個場景的精確深度圖。我們收集了大約2000個這樣的視頻,涵蓋了各種逼真的場景,場景中的人按照不同的分組配置自然分布。
人們在攝像頭在場景中移動時模仿人體模特,我們將其作為訓(xùn)練數(shù)據(jù)。我們使用傳統(tǒng)的MVS算法來估計深度,并在深度預(yù)測模型的訓(xùn)練中將其用于監(jiān)督。
推斷移動中的人的場景深度
Mannequin挑戰(zhàn)視頻對移動中的攝像機和“定格”的人進行深度監(jiān)控,但我們的目標是利用移動的攝像頭和移動的人來處理視頻。我們需要構(gòu)建網(wǎng)絡(luò)輸入來彌補這一差距。
一種可能的方法是為視頻的每一幀都進行深度圖推斷(也就是對模型的輸入相當(dāng)于單幀圖像)。雖然這種模型改進了用于深度預(yù)測的最先進的單幀方法,但是我們可以通過來自多幀的信息組合來進一步改善結(jié)果。比如運動視差,即兩個不同視點之間的靜態(tài)物體的明顯的相對運動,就對深度推斷提供了有力線索。為了充分利用這些信息,我們計算了視頻中每個輸入幀和另一幀之間的2D光流,用它表示兩幀之間的像素位移。
這些光流場取決于場景的深度和攝像頭的相對位置。但是,由于攝像頭位置是已知的,可以從流場中去除二者之間的依賴關(guān)系,由此生成初始深度圖。此初始深度僅對靜態(tài)場景區(qū)域有效。為了在測試時處理運動中的人,可以利用人工分割網(wǎng)絡(luò)來蓋住初始深度圖中的人類區(qū)域。這樣,我們網(wǎng)絡(luò)的完整輸入包括:RGB圖像、蓋住人類的區(qū)域,以及基于視差的遮蓋后的深度圖。
深度預(yù)測網(wǎng)絡(luò):模型的輸入包括RGB圖像(第t幀),人類區(qū)域的遮蓋和非人類區(qū)域的初始深度,根據(jù)輸入幀與另一個之間的運動視差(光流)計算視頻中的幀。模型輸出第t幀的完整深度圖。由MVS算法計算出的深度圖負責(zé)對訓(xùn)練過程的監(jiān)督。
該網(wǎng)絡(luò)的作用是“修復(fù)”人與場景的深度值,并在其他地方細化深度值。因為人類的外形和大小特征幾乎一致,網(wǎng)絡(luò)可以通過觀察多個訓(xùn)練樣例,在模型內(nèi)部學(xué)習(xí)這些先驗知識。經(jīng)過訓(xùn)練后,模型就可以處理任意攝像頭和人體同時運動的視頻。
以下是基于視頻的深度預(yù)測模型結(jié)果的一些示例,并與最近基于最新學(xué)習(xí)的方法做了比較。
上圖:基于學(xué)習(xí)的單眼深度預(yù)測方法。 下圖:基于學(xué)習(xí)的立體方法(DeMoN)和我們的估計深度圖的結(jié)果。
使用深度圖處理3D視頻效果
我們預(yù)測的深度圖可用于產(chǎn)生一系列3D感知視頻效
使用估計深度圖產(chǎn)生的散景效果
我們的深度圖也可用于其他方面的應(yīng)用,包括利用單眼視頻生成立體視頻,將合成CG對象插入場景,還可以在視頻的其他幀中顯示內(nèi)容的情況下進行場景區(qū)域的填充。
-
谷歌
+關(guān)注
關(guān)注
27文章
6176瀏覽量
105678 -
計算機視覺
+關(guān)注
關(guān)注
8文章
1699瀏覽量
46050 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5510瀏覽量
121338
原文標題:Google AI:機器學(xué)習(xí)預(yù)測場景深度圖,模擬人眼更進一步
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論