人體神經(jīng)輻射場(chǎng)的目標(biāo)是從 2D 人體圖片中恢復(fù)高質(zhì)量的 3D 數(shù)字人并加以驅(qū)動(dòng),從而避免耗費(fèi)大量人力物力去直接獲取 3D 人體幾何信息。這個(gè)方向的探索對(duì)于一系列應(yīng)用場(chǎng)景,比如虛擬現(xiàn)實(shí)和輔助現(xiàn)實(shí)場(chǎng)景,有著非常大潛在性的影響。
現(xiàn)有人體神經(jīng)輻射場(chǎng)生成和驅(qū)動(dòng)技術(shù)主要可以分為兩類。
第一類技術(shù)利用單目或者多目人體視頻去重建和驅(qū)動(dòng) 3D 數(shù)字人。這類技術(shù)主要是針對(duì)特定數(shù)字人的建模和驅(qū)動(dòng),優(yōu)化耗時(shí)大,缺乏泛化到大規(guī)模數(shù)字人重建上的能力。
第二類技術(shù)為了提升 3D 數(shù)字人重建的效率。提出利用多視角人體圖片作為輸入去重建人體神經(jīng)輻射場(chǎng)。
盡管這第二類方法在 3D 人體重建上取得了一定的效果,這類方法往往需要特定相機(jī)角度下的多目人體圖片作為輸入。在現(xiàn)實(shí)生活中,我們往往只能獲取到任意相機(jī)角度下人體的一張圖片,給這類技術(shù)的應(yīng)用提出了挑戰(zhàn)。
在 ICCV2023 上,南洋理工大學(xué) - 商湯科技聯(lián)合研究中心 S-Lab 團(tuán)隊(duì)提出了基于單張圖片的可泛化可驅(qū)動(dòng)人體神經(jīng)輻射場(chǎng)方法 SHERF。
SHERF 可以基于用戶輸入的一張任意相機(jī)角度 3D 人體圖片,該角度下相機(jī)和人體動(dòng)作體型(SMPL)參數(shù),以及給定目標(biāo)輸出空間下任意相機(jī)參數(shù)和人體動(dòng)作體型(SMPL)參數(shù),重建并驅(qū)動(dòng)該 3D 數(shù)字人。本方法旨在利用任意相機(jī)角度下人體的一張圖片去重建和驅(qū)動(dòng) 3D 人體神經(jīng)輻射場(chǎng)。
圖 1
基本原理
人體神經(jīng)輻射場(chǎng)重建和驅(qū)動(dòng)主要分為五個(gè)步驟(如圖 2 所示)。
圖 2
第一步為目標(biāo)空間(target space)到標(biāo)準(zhǔn)空間(canonical space)的坐標(biāo)轉(zhuǎn)換,基于用戶輸入目標(biāo)輸出空間下任意人體動(dòng)作體型參數(shù)和相機(jī)外參參數(shù),在目標(biāo)空間內(nèi)射出光線,并在光線上采樣一系列空間點(diǎn),利用 SMPL 算法的逆線性蒙皮轉(zhuǎn)換(Inverse Linear Blend Skinning)將目標(biāo)空間里的空間點(diǎn)轉(zhuǎn)換到標(biāo)準(zhǔn)空間中。
第二步為提取標(biāo)準(zhǔn)空間中 3D 點(diǎn)對(duì)應(yīng)的層級(jí)特征(hierarchical feature)。
全局特征(global feature)提取:利用二維編碼網(wǎng)絡(luò)(2D Encoder)從輸入圖片提取一維特征,并利用映射網(wǎng)絡(luò)(Mapping Network)和風(fēng)格編碼網(wǎng)絡(luò)(Style-Based Encoder)進(jìn)一步將 1D 特征轉(zhuǎn)換為標(biāo)準(zhǔn)空間下的三平面特征(Tri-plane),接下來(lái)將標(biāo)準(zhǔn)空間中 3D 點(diǎn)投影到三平面提取相應(yīng)的全局特征;
點(diǎn)級(jí)別特征(Point-Level Feature)提?。?/strong>首先利用二維編碼網(wǎng)絡(luò)(2D Encoder)從輸入圖片提取二維特征,并將觀測(cè)空間(observation space)下 SMPL 的頂點(diǎn)投影到輸入圖片成像平面上去提取相應(yīng)特征,緊接著利用 SMPL 算法的逆線性蒙皮轉(zhuǎn)換(Inverse Linear Blend Skinning)將觀測(cè)空間下 SMPL 的頂點(diǎn)轉(zhuǎn)到標(biāo)準(zhǔn)空間下構(gòu)建稀疏三維張量,然后利用稀疏卷積得到標(biāo)準(zhǔn)空間中 3D 點(diǎn)的點(diǎn)級(jí)別特征;
像素級(jí)別特征(Pixel-Aligned Feature)提?。?/strong>首先利用二維編碼網(wǎng)絡(luò)(2D Encoder)從輸入圖片提取二維特征,并利用 SMPL 算法的線性蒙皮轉(zhuǎn)換(Linear Blend Skinning)將標(biāo)準(zhǔn)空間中 3D 點(diǎn)轉(zhuǎn)到觀測(cè)空間下,再投影到輸入圖片成像平面上去提取相應(yīng)像素級(jí)別特征。
第三步為特征融合(Feature Fusion Transformer),利用 Transformer 模型將三種不同級(jí)別的特征進(jìn)行融合。第四步為人體神經(jīng)輻射場(chǎng)解碼生成相應(yīng)圖片信息,將標(biāo)準(zhǔn)空間中 3D 點(diǎn)坐標(biāo),光線方向向量和對(duì)應(yīng)特征輸入到人體神經(jīng)輻射場(chǎng)解碼網(wǎng)絡(luò)中得到 3D 點(diǎn)的體密度和顏色信息,并進(jìn)一步基于體渲染(Volume Rendering)在目標(biāo)空間下生成相應(yīng)像素的顏色值,并得到最終用戶輸入目標(biāo)輸出空間下任意人體動(dòng)作體型參數(shù)和相機(jī)外參參數(shù)下的圖片。
基于以上步驟,給定目標(biāo)輸出空間下任意人體動(dòng)作序列(SMPL)參數(shù)可以從 2D 圖片恢復(fù) 3D 數(shù)字人并加以驅(qū)動(dòng)。
結(jié)果比較
本文在四個(gè)人體數(shù)據(jù)集上人體數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),分別是 THuman,RenderPeople,ZJU_MoCap,HuMMan。
該研究對(duì)比了對(duì)比了最先進(jìn)的可泛化多視角人體圖片的人體神經(jīng)輻射場(chǎng)方法,NHP 和 MPS-NeRF。本文在 peak signal-to-noise ratio (PSNR),structural similarity index (SSIM),以及 Learned Perceptual Image Patch Similarity (LPIPS)進(jìn)行了比較。如下圖所示,本文在所有數(shù)據(jù)集,所有指標(biāo)上均大幅超越之前的方案。
SHERF 動(dòng)態(tài)驅(qū)動(dòng) 3D 人體結(jié)果如下圖所示:
從左到右分別為input Image、motion seq 1、motion seq 2
本文同樣驗(yàn)證了在 in-the-wild DeepFashion 數(shù)據(jù)上的泛化和驅(qū)動(dòng)效果,如下圖 3 所示,給定任意一張輸入圖片,本文利用單視角估 SMPL 的先進(jìn)算法估出 SMPL 和相應(yīng)相機(jī)角度,后利用本文提出的算法對(duì) 3D 人體進(jìn)行驅(qū)動(dòng)。實(shí)驗(yàn)結(jié)果顯示 SHERF 具有較強(qiáng)的泛化性。
從左到右分別為input Image、motion seq 1、motion seq 2
應(yīng)用前景
在游戲電影制作,虛擬現(xiàn)實(shí)增強(qiáng)現(xiàn)實(shí)或者其他需要數(shù)字人建模的場(chǎng)景,用戶可以無(wú)需專業(yè)技能,專業(yè)軟件,即可通過(guò)輸入的一張任意相機(jī)角度 3D 人體圖片,該角度下相機(jī)的參數(shù)和相應(yīng)的人體動(dòng)作體形參數(shù)(SMPL),就可以達(dá)到重建并驅(qū)動(dòng)該 3D 數(shù)字人的目的。
結(jié)語(yǔ)
本文提出一種基于單張輸入圖片可泛化可驅(qū)動(dòng)的人體神經(jīng)輻射場(chǎng)方法 SHERF??梢猿姓J(rèn)的是,本文依然存在一定的缺陷。
首先,對(duì)于輸入圖片觀測(cè)不到一部分人體表面, 渲染出來(lái)的結(jié)果可以觀察到一定的瑕疵,一個(gè)解決的辦法是建立一種遮擋可知(occlusion-aware)的人體表征。
其次,關(guān)于如何補(bǔ)齊輸入圖片觀測(cè)不到人體部分依舊是一個(gè)很難得問(wèn)題。本文從重建角度提出 SHERF,只能對(duì)觀測(cè)不到的人體部分給出一個(gè)確定性的補(bǔ)齊,對(duì)觀測(cè)不到部分的重建缺乏多樣性。一個(gè)可行的方案是利用生成模型在觀測(cè)不到的人體部分生成多樣性高質(zhì)量的 3D 人體效果。
審核編輯:劉清
-
驅(qū)動(dòng)器
+關(guān)注
關(guān)注
53文章
8255瀏覽量
146495 -
編碼器
+關(guān)注
關(guān)注
45文章
3646瀏覽量
134658
原文標(biāo)題:ICCV 2023 | SHERF:可泛化可驅(qū)動(dòng)人體神經(jīng)輻射場(chǎng)的新方法
文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論