0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于3D點(diǎn)云的多任務(wù)模型在板端實(shí)現(xiàn)高效部署

地平線HorizonRobotics ? 來源:地平線HorizonRobotics ? 2023-12-28 16:35 ? 次閱讀

簡介

對(duì)于自動(dòng)駕駛應(yīng)用來說,3D 場景感知至關(guān)重要。3D點(diǎn)云數(shù)據(jù)就是具有3D特征的數(shù)據(jù)。一方面,3D 點(diǎn)云可以直接用來獲取障礙物的距離和大小,以及場景的語義信息。另一方面,3D 點(diǎn)云也可以與 2D 圖像進(jìn)行融合,以充分利用兩者所提供的不同信息:圖像的優(yōu)勢在于語義信息更加豐富,點(diǎn)云的優(yōu)勢在于距離和深度感知精確。隨著深度學(xué)習(xí)架構(gòu)的發(fā)展,出現(xiàn)了很多基于3D 點(diǎn)云感知模型,通過提取 3D 空間的點(diǎn)云特征,可以構(gòu)建一種更精確、高維度、高分辨率的場景表示形式,助力下游預(yù)測與規(guī)控任務(wù)的發(fā)展。對(duì)于檢測模型,相比圖像感知模型,對(duì)于 3D 感知任務(wù),基于3D 點(diǎn)云的感知模型通常擁有非常明顯的精度優(yōu)勢。

同時(shí),在自動(dòng)駕駛系統(tǒng)中,可行駛區(qū)域分割是一項(xiàng)重要的任務(wù)。可行駛區(qū)域的提取是ADAS的關(guān)鍵技術(shù),旨在使用傳感器感知技術(shù)感知駕駛車輛周圍的道路環(huán)境,識(shí)別并分割出當(dāng)前駕駛場景下可行駛的區(qū)域,防止偏離車道或違規(guī)駕駛。

在部署過程中,相比圖像模型,3D 點(diǎn)云的輸入處理過程更復(fù)雜,量化難度高,導(dǎo)致難以部署。當(dāng)前常見的對(duì)點(diǎn)云數(shù)據(jù)處理方式包括point-based、pillar-based、voxel-based等方式??紤]到部署的實(shí)時(shí)性需求,地平線選用了基于pillar-based的 Centerpoint,同時(shí)提出了基于3D點(diǎn)云的多任務(wù)模型,實(shí)現(xiàn)可行駛區(qū)域分割的感知功能。本文即對(duì)如何在地平線征程5芯片上高效部署基于3D點(diǎn)云的多任務(wù)模型進(jìn)行介紹。

整體框架

cdaac5fe-a55a-11ee-8b88-92fbcf53809c.png

本文介紹的多任務(wù)模型輸入為3D點(diǎn)云,通過感知模型可同時(shí)輸出 3D 目標(biāo)檢測結(jié)果和 2D 可行駛區(qū)域的分割結(jié)果。多任務(wù)模型網(wǎng)絡(luò)結(jié)構(gòu)可分為以下三個(gè)部分:

?點(diǎn)云前處理。該部分是對(duì)3D點(diǎn)云做基于pillar-based的處理,將點(diǎn)劃分到pillars中,形成偽圖像。包括以下三個(gè)部分:

a. Pillar 化:將輸入的原始點(diǎn)云轉(zhuǎn)換為 pillar 特征;

b. PFNLayer:提取 pillar 特征,特征通道數(shù)提升至 64;

c. Scatter:完成 pillar 特征到偽圖像化的轉(zhuǎn)換;

?特征提取和融合: 該層選用 MixVarGENet+UNET 結(jié)構(gòu),提取多層特征并加以融合,獲得高層語義特征;

?多任務(wù)輸出頭: 輸出多類別的 3D 目標(biāo)檢測和二分類的可行駛區(qū)域分割結(jié)果。

部署優(yōu)化

在部署優(yōu)化之前,首先明確針對(duì)Centerpoint多任務(wù)模型的各部分的結(jié)構(gòu)做性能和量化精度上分析,然后進(jìn)一步給出優(yōu)化方向和優(yōu)化思路。

量化精度優(yōu)化

在前面有提到,點(diǎn)云數(shù)據(jù)具有不均勻的特征,這種分布特點(diǎn)的數(shù)據(jù)使用PTQ量化方式很大可能會(huì)有量化精度問題,因此在 Centerpoint 多任務(wù)模型的量化過程中,我們使用 Calibration+QAT 的量化方式來保證點(diǎn)云模型的量化精度。需要提到的是地平線的calibration對(duì)于大部分模型就可以達(dá)到預(yù)期的量化精度,少量模型在較小的QAT訓(xùn)練代價(jià)下可以達(dá)到量化精度。由于 Centerpoint 多任務(wù)模型中所有算子的量化在征程5上是完全支持的,得到初版的量化精度是非常簡單的。

QAT量化方式是根據(jù)數(shù)據(jù)的分布選取量化系數(shù),將fp32的數(shù)據(jù)截?cái)嗟絠nt8范圍,由于點(diǎn)云數(shù)據(jù)分布不均勻,其表現(xiàn)在部分?jǐn)?shù)據(jù)(點(diǎn)云坐標(biāo))的數(shù)值范圍較大,部分(點(diǎn)到中心的距離)數(shù)值范圍較小,這種情況對(duì)量化是很不友好的,因此在量化訓(xùn)練中,會(huì)導(dǎo)致精度掉點(diǎn);為了使數(shù)據(jù)分布處于均勻范圍內(nèi),一般都會(huì)做歸一化處理(歸一化對(duì)浮點(diǎn)的精度也是有利的),因此,為了提升量化精度,我們增加了對(duì)點(diǎn)云特征的歸一化處理。

Python
def _voxel_feature_encoder(self, features, norm_dims, norm_range,feature,num_points_in_voxel):
    # normolize features
    for idx, dim in enumerate(norm_dims):
        start = norm_range[idx]
        norm = norm_range[idx + len(norm_range) // 2] - norm_range[idx]
        features[:, :, dim] = features[:, :, dim] - start
        features[:, :, dim] = features[:, :, dim] / norm
    ...


    return features

在nuscenes數(shù)據(jù)集上的驗(yàn)證,經(jīng)歸一化處理后,量化精度損失在 1% 以內(nèi)

性能優(yōu)化

點(diǎn)云前處理優(yōu)化

前處理包括Voxelization操作和特征的擴(kuò)維操作-VoxelAugment。我們將分析公版的實(shí)現(xiàn)在征程5上部署的困難點(diǎn),然后基于困難點(diǎn)介紹優(yōu)化方式以及地平線對(duì)點(diǎn)云前處理的部署優(yōu)化。

Voxelization:體素化,是把三維空間中的點(diǎn)云數(shù)據(jù)轉(zhuǎn)換到體素(voxel,即三維空間中的網(wǎng)格)。
Centerpoint中的 Pillars 可以看作是特殊( z 軸沒有空間限制)的 voxel,為了與社區(qū)名稱和代碼實(shí)現(xiàn)名稱相統(tǒng)一,我們下文統(tǒng)一稱為 Voxelization、voxel。

Voxelization部署分析

假設(shè)用 (x, y, z, r, t) 表示點(diǎn)云數(shù)據(jù)中的一個(gè)點(diǎn),其中(x, y, z) 坐標(biāo),r 為點(diǎn)云的反射強(qiáng)度,t為時(shí)間戳。

Centerpoint中的Pillar化(一種特殊的 Voxelization 操作,是把 z 軸看作一個(gè)整體,把三維空間離散化為 x-y 平面中均勻間隔的網(wǎng)格),在 Voxelization 過程中,需要依次、逐個(gè)對(duì)密集點(diǎn)云中的每個(gè)點(diǎn)進(jìn)行判斷,并將其劃分入對(duì)應(yīng)的 voxel 中,且每個(gè) voxel 都需要存儲(chǔ)點(diǎn)云中對(duì)應(yīng)區(qū)域的信息。隨著點(diǎn)云密度的增加,處理的體素?cái)?shù)量也相應(yīng)增多,導(dǎo)致需要更多的計(jì)算和內(nèi)存資源,其計(jì)算復(fù)雜度可能導(dǎo)致較長的部署時(shí)間

VoxelAugment部署分析

繼voxelization 中把每個(gè)點(diǎn)云 point 劃分到各個(gè) pillar 中之后,公版 Centerpoint中對(duì)點(diǎn)云 point 做了特征增強(qiáng),即前文提到的把基于 nuscenes 數(shù)據(jù)集的5 維點(diǎn)云 point 數(shù)據(jù)(x, y, z, r, t)根據(jù)點(diǎn)到中心的距離擴(kuò)充到了 11 維(x, y, z, r, t,xc, yc, zc,xp, yp, zp,)。然而,這樣的處理方式,無論是對(duì)量化精度還是部署性能方面,都存在一些不足:

?量化精度方面:前文已提到,這里不再贅述;

?部署性能方面: 在從 5 維擴(kuò)充到 11 維時(shí),對(duì)中心點(diǎn)距離的求解,增加了計(jì)算量和相應(yīng)的耗時(shí)。而在我們的實(shí)驗(yàn)中發(fā)現(xiàn),增加的后 6 維數(shù)據(jù),實(shí)際對(duì)模型的浮點(diǎn)精度影響很小。

針對(duì)以上兩個(gè)問題,下面介紹地平線的優(yōu)化方法。

VoxelAugment優(yōu)化

根據(jù)實(shí)驗(yàn),原11維的方案會(huì)導(dǎo)致耗時(shí)增加,精度收益不大,因此在我們的改進(jìn)方法中,點(diǎn)云 point 僅使用前5維(x, y, z, r, t),見板端c++代碼:

Python
void QATCenterpointPreProcessMethod::GenFeatureDim5(float scale) {
  for (int i = 0; i < voxel_num_; i++) {
    int idx = i * config_->kmax_num_point_pillar * config_->kdim;
    for (int j = 0; j < config_->kmax_num_point_pillar; ++j) {
      if (config_->pillar_point_num[i] >
          config_->kmax_num_point_pillar_vec[j]) {
        int index = idx + j * config_->kdim;
        voxel_data_[index + 0] =
            (voxel_data_[index + 0] - config_->kback_border) /
            config_->kx_range / scale;
        voxel_data_[index + 1] =
            (voxel_data_[index + 1] - config_->kright_border) /
            config_->ky_range / scale;
        voxel_data_[index + 2] =
            (voxel_data_[index + 2] - config_->kbottom_border) /
            config_->kz_range / scale;
        voxel_data_[index + 3] = (voxel_data_[index + 3] - config_->kr_lower) /
                                 config_->kr_range / scale;
        if (voxel_data_[index + 4] != 0) {
          voxel_data_[index + 4] = voxel_data_[index + 4] / scale;
        }
      }
    }
  }
}

在優(yōu)化后,該部分耗時(shí)減少了 4ms,精度上影響較小。

除了以上的優(yōu)化外,考慮硬件對(duì)齊特性,對(duì)特征的layout也做了優(yōu)化,以便模型可以高效率運(yùn)行。征程5計(jì)算運(yùn)算的時(shí)候有最小的對(duì)齊單位,若不滿足規(guī)則時(shí)會(huì)對(duì)Tensor自動(dòng)進(jìn)行padding,造成無效的算力浪費(fèi)。例如conv的對(duì)齊大規(guī)則為2H16W8C/2H32W4C?;谟布卣鳎捎肏 W維度轉(zhuǎn)換的方式,將大數(shù)據(jù)放到W維度以減少算力的浪費(fèi),因此在生成pillars特征對(duì)其做歸一化后使用permute將1x5x40000x20轉(zhuǎn)換為1x5x20x40000。

Python
features = features.unsqueeze(0).permute(0, 3, 2, 1).contiguous()

Voxelization優(yōu)化

對(duì)于點(diǎn)云的voxelization耗時(shí)問題,地平線提供了ARMDSP部署方式??梢栽贠E包的AIBenchmerk中查看其具體實(shí)現(xiàn)。

DSP具有強(qiáng)大的并行計(jì)算能力,能夠同時(shí)處理多個(gè)數(shù)據(jù),且具有快速讀寫內(nèi)存的特點(diǎn),利用 DSP 可以有效加速 Voxelization 過程,提高實(shí)時(shí)性能。例如,在 nuscenes數(shù)據(jù)集(點(diǎn)云數(shù)據(jù)量為30萬),經(jīng) DSP 優(yōu)化后,前處理耗時(shí)由77ms 降低至20ms,性能提升3.8倍。具體數(shù)據(jù)可見實(shí)驗(yàn)結(jié)果章節(jié)。

優(yōu)化后,點(diǎn)云處理部分流程圖如下所示:

cdb90772-a55a-11ee-8b88-92fbcf53809c.png

特征提取與融合PFNLayer

Centerpoint 的PFNLayer作用是將每個(gè)包含D維特征的點(diǎn)(由前文可知,公版Centerpoint中 D=11,地平線參考模型中D=5)用一個(gè)Linear+BatchNorm1d+ ReLU+max 的組合來進(jìn)行特征提取,生成(C,P,N) 的張量。

而地平線征程5最早針對(duì)的是以CNN為基礎(chǔ)的圖像處理,在編譯器內(nèi)部4d-Tensor是最高效的支持方式。如果不是4d-Tensor的話,編譯器內(nèi)部會(huì)主動(dòng)轉(zhuǎn)成4d(某些維度為1)來做,會(huì)多了很多無效的計(jì)算。我們可以使用常規(guī)的4維算子替換原來任意維度的設(shè)置,避免不必要的冗余計(jì)算。常見的替換方式如下,中間配合任意維度的reshape,permute來完成等價(jià)替換。因此,我們將公版中的 Linear + BatchNorm1d + ReLU + max 分別做了如下替換:

N dims 4dims
nn.Linear nn.Conv2d
nn.BacthNorm1d nn.BacthNorm2d
torch.max nn.MaxPool2d

偽圖像化

PillarScatter 是實(shí)現(xiàn)偽圖像轉(zhuǎn)換的最后一個(gè)步驟,該部分將(1, 1, P, C) 的特征映射獲得形如(C, H, W) 的偽圖像。為了便于量化訓(xùn)練和上板推理優(yōu)化,我們在 horizon_plugin_pytorch 和編譯器中均實(shí)現(xiàn)了point_pillars_scatter 算子。該算子由編譯器內(nèi)部完成,用戶不需要感知。

horizon_plugin_pytorch 中 point_pillars_scatter 算子的調(diào)用方式為:

Python
from horizon_plugin_pytorch.nn.functional import point_pillars_scatter


pseudo_image_feature = point_pillars_scatter(voxel_features, coords, out_shape)

backbone+neck

關(guān)于特征提取與融合部分,由于點(diǎn)云處理部分生成的偽圖像特征輸出通道數(shù)較大,原 Centerpoint 模型中的 SECOND 結(jié)構(gòu)部署速度不夠快,本文選用 MixVarGENet+UNET 結(jié)構(gòu),作為模型的 backbone 與 neck。

MixVarGENet 為地平線基于征程5硬件特性自研的backbone結(jié)構(gòu),特點(diǎn)是性能表現(xiàn)優(yōu)異,可以達(dá)到雙核5845FPS。該結(jié)構(gòu)的基本單元為MixVarGEBlock。如下為MixVarGEBlock的結(jié)構(gòu)圖:

cdd37760-a55a-11ee-8b88-92fbcf53809c.png

MixVarGENet高度秉承了“軟硬結(jié)合”的設(shè)計(jì)理念,針對(duì)征程5的算力特性做了一些定制化設(shè)計(jì),其設(shè)計(jì)思路可以總結(jié)為:

1. 小channel時(shí)使用normal conv,發(fā)揮征程5算力優(yōu)勢;

2. 大channel時(shí)引入group conv,緩解帶寬壓力;

3. Block內(nèi)部擴(kuò)大channel,提升網(wǎng)絡(luò)算法性能;

4. 縮短feature復(fù)用時(shí)間間隔,減少SRAMDDR訪存。

充分考慮征程5的帶寬和硬件屬性,小neck+大backbone的組合比較經(jīng)濟(jì),且可以提高BPU的利用率,能達(dá)到平衡精度與速度的最佳組合

多任務(wù)輸出頭

Centerpoint多任務(wù)模型的輸出頭分為兩部分,對(duì)于 3D 目標(biāo)檢測,選用 Centerpoint 模型的預(yù)測頭,2D 可行駛區(qū)域的分割結(jié)果則選用了 FCN 結(jié)構(gòu)做為輸出頭。

多任務(wù)模型的分割頭為 FCNHead,其中部分卷積模塊替換為深度可分離卷積,有利于部署性能的進(jìn)一步提升。同理,多任務(wù)模型的檢測頭 CenterpointHead 也將部分卷積模塊替換為深度可分離卷積。替換后,模型部署性能得到了進(jìn)一步的提升,同時(shí)浮點(diǎn)精度不受影響。

由于公版 Centerpoint 模型的二階段在 nuscenes 數(shù)據(jù)集上并無精度提升,因此這里只選用了一階段的輸出頭。

實(shí)驗(yàn)結(jié)果

1. Centerpoint 多任務(wù)模型在征程5性能數(shù)據(jù)

數(shù)據(jù)集 Nuscenes
點(diǎn)云量 30W(5dim)(注1)
點(diǎn)云范圍 [-51.2, -51.2, -5.0, 51.2, 51.2, 3.0]
Voxel size [0.2, 0.2, 8]
最大點(diǎn)數(shù) 20
最大pillars數(shù) 40000
FPS 106.14
前處理時(shí)長(arm/arm+dsp) 77ms/20ms
latency 23.79ms
量化精度 浮點(diǎn):NDS: 0.5809, mAP: 0.4727, miou:91.29
定點(diǎn):NDS: 0.5762, mAP: 0.4653, miou:91.22
檢測類別 10類(注2)
分割類別 二分類(注2)

1:維度為(x,y,z,r,t),即:3維坐標(biāo)、強(qiáng)度和時(shí)間

2:檢測任務(wù):["car","truck","construction_vehicle","bus","trailer","barrier","motorcycle","bicycle","pedestrian","traffic_cone"]

分割任務(wù):["others", "driveable_surface"]

2. 基于3D點(diǎn)云的多任務(wù)模型高效部署通用建議

?對(duì)輸入數(shù)據(jù)做歸一化,更有利于量化。

?如在部署中使用PTQ無法解決量化精度問題,考慮使用QAT做量化部署。

?對(duì)于點(diǎn)云數(shù)據(jù),pillars_num較大,將大數(shù)據(jù)放到W維度提升計(jì)算效率。

?建議選擇小neck+大backbone的組合,減小帶寬壓力,達(dá)到性能提升。

?使用地平線提供的點(diǎn)云前處理,若前處理存在性能瓶頸,嘗試DSP方案。

總結(jié)

本文通過對(duì)基于3D點(diǎn)云的多任務(wù)模型在地平線征程5上量化部署的優(yōu)化,使得模型以低于1%的量化精度損失,得到 latency 為 23.79ms 的部署性能。在點(diǎn)云處理方面,通過針對(duì)性的優(yōu)化方法,靈活支持了不同點(diǎn)云輸入并大幅提高點(diǎn)云處理的速度;在特征提取方面,選用了征程5高效結(jié)構(gòu) MixVarGENet+UNET;在輸出設(shè)置上,采用多任務(wù)輸出設(shè)計(jì),能夠同時(shí)得到 3D 目標(biāo)檢測結(jié)果和可行駛區(qū)域的分割結(jié)果。







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2551

    文章

    51097

    瀏覽量

    753527
  • dsp
    dsp
    +關(guān)注

    關(guān)注

    553

    文章

    7998

    瀏覽量

    348900
  • 編譯器
    +關(guān)注

    關(guān)注

    1

    文章

    1634

    瀏覽量

    49129
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    784

    文章

    13812

    瀏覽量

    166447
  • ADAS系統(tǒng)
    +關(guān)注

    關(guān)注

    4

    文章

    226

    瀏覽量

    25696

原文標(biāo)題:多維優(yōu)化Centerpoint模型成果顯著!基于3D點(diǎn)云的多任務(wù)模型在板端實(shí)現(xiàn)高效部署

文章出處:【微信號(hào):horizonrobotics,微信公眾號(hào):地平線HorizonRobotics】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于深度學(xué)習(xí)的方法處理3D點(diǎn)進(jìn)行缺陷分類應(yīng)用

    背景部分介紹了3D點(diǎn)應(yīng)用領(lǐng)域中公開可訪問的數(shù)據(jù)集的重要性,這些數(shù)據(jù)集對(duì)于分析和比較各種模型至關(guān)重要。研究人員專門設(shè)計(jì)了各種數(shù)據(jù)集,包括用于3D
    的頭像 發(fā)表于 02-22 16:16 ?1145次閱讀
    基于深度學(xué)習(xí)的方法<b class='flag-5'>在</b>處理<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>進(jìn)行缺陷分類應(yīng)用

    老生常談---一種裸奔多任務(wù)模型

    一種裸奔多任務(wù)模型一個(gè)網(wǎng)友的總結(jié):stateMachine + timerTick + queue。RTOS環(huán)境下的多任務(wù)模型任務(wù)通常阻塞在一個(gè)OS調(diào)用上(比如從消息隊(duì)列取數(shù)據(jù))。
    發(fā)表于 12-08 10:13

    你沒看錯(cuò),浩辰3D軟件中CAD圖紙與3D模型高效轉(zhuǎn)化這么好用!

    、角度、受力等等實(shí)現(xiàn)精準(zhǔn)參數(shù)化管理。 (精準(zhǔn)參數(shù)化管理)3、一鍵生成各類2D工程圖浩辰3D為用戶提供了多種工程圖創(chuàng)建方式,可以通過新建直接選擇工程圖設(shè)計(jì),
    發(fā)表于 05-13 14:33

    浩辰3D軟件入門教程:如何比較3D模型

    。浩辰3D軟件不僅提供了完備的零件、裝配、仿真、工程圖、鈑金、焊接等數(shù)十種設(shè)計(jì)模塊,還提供了「比較模型」和「比較圖紙」功能,讓這一過程高效且精確。01「比較模型
    發(fā)表于 12-15 13:45

    PYNQ框架下如何快速完成3D數(shù)據(jù)重建

    的。為了與下一節(jié)中實(shí)現(xiàn)的自定義方法進(jìn)行比較,使用Mesh Lab可視化三維點(diǎn)。從下圖可以看出,渲染是準(zhǔn)確的。使用PYNQ生成3D
    發(fā)表于 01-07 17:25

    裸奔環(huán)境下的多任務(wù)模型

    對(duì)于簡單的嵌入式應(yīng)用多數(shù)裸奔就能解決,但寫出來的裸奔代碼質(zhì)量也由好壞之分。在網(wǎng)上看到了這樣一篇文字:上面說到了裸奔環(huán)境下的多任務(wù)模型 - stateMachine + timerTick
    發(fā)表于 01-21 07:41

    基于頁的8051多任務(wù)模型

      隨著8051微控制器性能的不斷提高,使用多任務(wù)操作系統(tǒng)對(duì)單片機(jī)進(jìn)行資源管理已成為當(dāng)代開發(fā)的需要。由于受靜態(tài)鏈接的限制,8051系統(tǒng)的多任務(wù)開發(fā)需要處理代碼重入(reentran
    發(fā)表于 09-25 17:34 ?973次閱讀
    基于頁的8051<b class='flag-5'>多任務(wù)模型</b>

    3D點(diǎn)技術(shù)介紹及其與VR體驗(yàn)的關(guān)系

    ;x>nkedIn上發(fā)表了一篇跟澳大利亞科技公司優(yōu)立(Euclideon)所使用的點(diǎn)數(shù)據(jù)有關(guān)的文章,并在業(yè)內(nèi)引起了一番討論。 1. 點(diǎn)的問題 點(diǎn)
    發(fā)表于 09-15 09:28 ?20次下載

    點(diǎn)問題的介紹及3D點(diǎn)技術(shù)VR中的應(yīng)用

    。即便是掃描最小的對(duì)象,系統(tǒng)都會(huì)創(chuàng)建上百萬這樣的點(diǎn),所以要管理這樣的海量數(shù)據(jù)并不容易。CAD軟件可以連接各個(gè)點(diǎn),但這一過程需要大量的計(jì)算資源,完善成品模型往往是一個(gè)艱苦的過程。 從點(diǎn)
    發(fā)表于 09-27 15:27 ?17次下載

    3D 點(diǎn)的無監(jiān)督膠囊網(wǎng)絡(luò) 多任務(wù)實(shí)現(xiàn)SOTA

    這是一種為 3D 點(diǎn)提出的無監(jiān)督膠囊架構(gòu),并且 3D 點(diǎn)
    的頭像 發(fā)表于 01-02 09:39 ?2085次閱讀

    何為3D點(diǎn)語義分割

    融合標(biāo)注使用的3D標(biāo)注工具仍以3D立體框?yàn)橹鳎?b class='flag-5'>3D點(diǎn)數(shù)據(jù)以外,還需要使用2D標(biāo)注工具
    的頭像 發(fā)表于 07-21 15:52 ?8681次閱讀

    workflow的任務(wù)模型

    主要就是想介紹下workflow的任務(wù)模型,其他的框架一般只能處理普通的網(wǎng)絡(luò)通信,而workflow卻特別適用于通信與計(jì)算關(guān)系很復(fù)雜的應(yīng)用。其實(shí)我最感興趣的是它的內(nèi)存管理機(jī)制,下面也會(huì)詳細(xì)介紹。
    的頭像 發(fā)表于 02-21 14:05 ?833次閱讀
    workflow的<b class='flag-5'>任務(wù)模型</b>

    如何試用MediaPipe實(shí)現(xiàn)人臉3D點(diǎn)數(shù)據(jù)提取

    本文介紹如何試用MediaPipe實(shí)現(xiàn)人臉3D點(diǎn)數(shù)據(jù)提取,提取的數(shù)據(jù)為人臉468點(diǎn)位。
    發(fā)表于 02-23 17:47 ?1450次閱讀

    3D點(diǎn)數(shù)據(jù)集3D數(shù)字化技術(shù)中的應(yīng)用

    隨著計(jì)算機(jī)視覺技術(shù)的不斷發(fā)展,3D 數(shù)字化技術(shù)已經(jīng)成為了當(dāng)今工業(yè)制造領(lǐng)域和三維醫(yī)學(xué)影像領(lǐng)域的關(guān)鍵技術(shù)。然而,構(gòu)建高精度、高分辨率的 3D 點(diǎn)數(shù)據(jù)集對(duì)于
    的頭像 發(fā)表于 05-06 16:46 ?1437次閱讀

    基于深度學(xué)習(xí)的3D點(diǎn)實(shí)例分割方法

    3D實(shí)例分割(3DIS)是3D領(lǐng)域深度學(xué)習(xí)的核心問題。給定由點(diǎn)云表示的 3D 場景,我們尋求為每個(gè)點(diǎn)
    發(fā)表于 11-13 10:34 ?2348次閱讀
    基于深度學(xué)習(xí)的<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>實(shí)例分割方法