0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度圖像的人體關(guān)節(jié)定位算法

新機(jī)器視覺(jué) ? 來(lái)源:上海交大類(lèi)腦智能應(yīng)用技 ? 作者:上海交大類(lèi)腦智能 ? 2022-07-15 10:05 ? 次閱讀

人體姿態(tài)估計(jì)是當(dāng)前計(jì)算機(jī)視覺(jué)領(lǐng)域的熱點(diǎn)研究問(wèn)題。對(duì)人體骨架關(guān)節(jié)點(diǎn)進(jìn)行準(zhǔn)確提取并構(gòu)建人體骨架模型,為進(jìn)一步的人體姿態(tài)識(shí)別、實(shí)時(shí)交互游戲等應(yīng)用提供了基礎(chǔ)。但是傳統(tǒng)的基于RGB圖像的方法容易受到光照、陰影、復(fù)雜背景的影響,準(zhǔn)確度不高并且算法復(fù)雜。利用深度圖像技術(shù)可以有效地解決上述問(wèn)題,利用深度信息可以快速地進(jìn)行背景分割,抗干擾性能好,算法效率高。

本文主要研究基于深度圖像的人體關(guān)節(jié)定位算法。算法對(duì)深度圖像素點(diǎn)周?chē)鷧^(qū)域的深度進(jìn)行格點(diǎn)化采樣以提取其深度特征,再使用隨機(jī)森林分類(lèi)器進(jìn)行像素點(diǎn)分類(lèi),對(duì)同一類(lèi)別的點(diǎn)使用Mean Shift算法聚類(lèi)出中心點(diǎn),以該中心點(diǎn)作為關(guān)節(jié)點(diǎn)位置。該算法可對(duì)人體全身關(guān)節(jié)點(diǎn)進(jìn)行定位。

局域深度特征提取

本文中采用如圖1所示的局域深度采樣特征。其中藍(lán)色點(diǎn)表示圖像I中給定的像素x,以該像素為中心生成一個(gè)5*5的格點(diǎn)矩陣,紅色的格點(diǎn)表示要進(jìn)行深度采樣的點(diǎn)。

734edd8c-037d-11ed-ba43-dac502259ad0.png

圖1 局域深度采樣示意圖

隨機(jī)森林分類(lèi)器

分類(lèi)器是對(duì)樣本進(jìn)行分類(lèi)的算法的統(tǒng)稱(chēng),在機(jī)器學(xué)習(xí)中有許多種分類(lèi)器可供我們選擇使用,包括邏輯回歸、樸素貝葉斯、支持向量機(jī)(SVM)、決策樹(shù)、隨機(jī)森林、神經(jīng)網(wǎng)絡(luò)等算法。綜合考慮分類(lèi)的精度與效率,本課題中采用的是隨機(jī)森林分類(lèi)器。

隨機(jī)森林分類(lèi)器是由多棵決策樹(shù)組合而成的分類(lèi)器,如圖2所示。決策樹(shù)的結(jié)構(gòu)類(lèi)似二叉樹(shù),由分裂結(jié)點(diǎn)和葉結(jié)點(diǎn)構(gòu)成。每一個(gè)分裂結(jié)點(diǎn)包含一個(gè)特征與閾值,像素x從根部開(kāi)始,根據(jù)特征與閾值劃分進(jìn)入左子樹(shù)還是右子樹(shù),這樣不斷地分裂直到葉結(jié)點(diǎn)。在每棵樹(shù)的葉結(jié)點(diǎn)能夠得到該像素對(duì)于各個(gè)身體部件的概率分布,將各棵樹(shù)得到的結(jié)果相加,得到最終的概率分布,擁有最高概率的一類(lèi)作為最終的分類(lèi)結(jié)果。

隨機(jī)森林將多棵決策樹(shù)合并在一起,準(zhǔn)確度相較于單棵決策樹(shù)有較大提升,并且多棵決策樹(shù)可以并行訓(xùn)練,提高了訓(xùn)練效率。

735cdb58-037d-11ed-ba43-dac502259ad0.png

圖2隨機(jī)森林分類(lèi)器

訓(xùn)練完隨機(jī)森林分類(lèi)器后,我們利用其對(duì)像素點(diǎn)進(jìn)行分類(lèi),判斷其屬于身體的哪個(gè)部位。對(duì)于圖像中的每個(gè)像素,使用分類(lèi)器對(duì)其分類(lèi)后得到分類(lèi)的結(jié)果,以及預(yù)測(cè)結(jié)果的概率。我們只選取圖像中預(yù)測(cè)概率高于80%的點(diǎn),這樣就能得到密度不同的分類(lèi)點(diǎn)。越靠近關(guān)節(jié)點(diǎn)位置,預(yù)測(cè)概率越高,點(diǎn)的密度越大,遠(yuǎn)離關(guān)節(jié)點(diǎn)位置的密度則小。

關(guān)節(jié)點(diǎn)位置估計(jì)

在得到像素點(diǎn)分類(lèi)后,我們使用Mean Shift聚類(lèi)算法得到屬于同一部位像素點(diǎn)的中心,作為關(guān)節(jié)位置。

Mean Shift算法一般為一個(gè)迭代過(guò)程,先計(jì)算感興趣區(qū)域內(nèi)的偏移均值,移動(dòng)區(qū)域中心到計(jì)算出的質(zhì)心處,然后以此處作為新的起點(diǎn),繼續(xù)移動(dòng)。在迭代過(guò)程中,不斷向密度更大的地方偏移,直到移動(dòng)到這類(lèi)像素點(diǎn)密度最高的中心位置而停止。此時(shí)這個(gè)位置最能代表這一類(lèi)點(diǎn),我們將其作為該部位的關(guān)節(jié)點(diǎn)位置。分別對(duì)所有類(lèi)別的點(diǎn)都運(yùn)行一遍此算法后,我們就能得到全身關(guān)節(jié)點(diǎn)的位置。

但是由于分類(lèi)結(jié)果并不一定準(zhǔn)確,聚類(lèi)出的結(jié)果可能與真實(shí)關(guān)節(jié)點(diǎn)的位置有所偏移,這時(shí)我們可以采用人體骨架長(zhǎng)度比例約束條件,來(lái)矯正一部分偏移較大的關(guān)節(jié)點(diǎn),對(duì)預(yù)測(cè)結(jié)果進(jìn)行優(yōu)化。

流程介紹

訓(xùn)練流程:對(duì)一幅深度圖,取關(guān)節(jié)附近的點(diǎn)作為訓(xùn)練集,對(duì)這些點(diǎn)提取深度特征,再訓(xùn)練隨機(jī)森林分類(lèi)器

736b3266-037d-11ed-ba43-dac502259ad0.png

圖3訓(xùn)練流程示意圖

測(cè)試流程:深度圖背景分割得到人體區(qū)域圖像,使用隨機(jī)森林分類(lèi)器對(duì)人體的像素點(diǎn)進(jìn)行分類(lèi),選取預(yù)測(cè)概率大于設(shè)定閾值的點(diǎn),則得到疏密不同的各關(guān)節(jié)部位像素點(diǎn),越接近關(guān)節(jié)點(diǎn)位置,像素點(diǎn)越密,再使用Mean shift算法進(jìn)行聚類(lèi),得到關(guān)節(jié)點(diǎn)位置

739e8a26-037d-11ed-ba43-dac502259ad0.png

測(cè)試流程示意圖

運(yùn)行效果

圖4為關(guān)節(jié)定位算法的運(yùn)行效果,(a)為NTU數(shù)據(jù)集中關(guān)節(jié)點(diǎn)的標(biāo)準(zhǔn)位置;(b)是算法對(duì)同一張深度圖中關(guān)節(jié)點(diǎn)的定位結(jié)果;(c)為自制的Kinect測(cè)試集上的運(yùn)行效果;(d)為采用公司研制的TOF相機(jī)模塊拍攝的深度圖的運(yùn)行效果??梢灾庇^地看出定位效果較為良好。TOF相機(jī)的分辨率為320*240,因此相同距離下人體在畫(huà)面中所占比例更大。

73aacc8c-037d-11ed-ba43-dac502259ad0.png

(a) (b)

73c01f6a-037d-11ed-ba43-dac502259ad0.png

(c) (d)

圖4 算法運(yùn)行效果示例

注:

(a)NTU測(cè)試集真值,25關(guān)節(jié)

(b)NTU測(cè)試集

(c)自制測(cè)試集

(d)TOF相機(jī)拍攝圖像

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4623

    瀏覽量

    93109
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8428

    瀏覽量

    132837
  • 深度圖像
    +關(guān)注

    關(guān)注

    0

    文章

    19

    瀏覽量

    3515

原文標(biāo)題:3D視覺(jué)在人體姿態(tài)估計(jì)算法的應(yīng)用

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    ADS1293獲取的人體心電信號(hào),如何實(shí)現(xiàn)隔直?

    1. ADS1293獲取的人體心電信號(hào),如何實(shí)現(xiàn)隔直?ECG信號(hào)沒(méi)有隔直處理的話,基線會(huì)偏離0電壓位置,并且不同的人在不同的時(shí)間,偏置的電壓不盡相同。 2. ADS1293評(píng)估板手冊(cè)上,波形十分
    發(fā)表于 12-10 08:25

    深度識(shí)別算法包括哪些內(nèi)容

    :CNN是深度學(xué)習(xí)中處理圖像和視頻等具有網(wǎng)格結(jié)構(gòu)數(shù)據(jù)的主要算法。它通過(guò)卷積層、池化層和全連接層等組件,實(shí)現(xiàn)對(duì)圖像特征的自動(dòng)提取和識(shí)別。 應(yīng)用領(lǐng)域 :CNN在
    的頭像 發(fā)表于 09-10 15:28 ?428次閱讀

    可穿戴設(shè)備的人體成分測(cè)量 (BCM)申請(qǐng)簡(jiǎn)介

    電子發(fā)燒友網(wǎng)站提供《可穿戴設(shè)備的人體成分測(cè)量 (BCM)申請(qǐng)簡(jiǎn)介.pdf》資料免費(fèi)下載
    發(fā)表于 09-10 09:22 ?0次下載
    可穿戴設(shè)備<b class='flag-5'>的人體</b>成分測(cè)量 (BCM)申請(qǐng)簡(jiǎn)介

    基于新型藍(lán)牙技術(shù)的人定位方案

    云酷科技“基于新型藍(lán)牙技術(shù)的人定位項(xiàng)目”在結(jié)合行業(yè)相關(guān)制度及項(xiàng)目管理經(jīng)驗(yàn)基礎(chǔ)上,利用藍(lán)牙定位、4G/5G通訊等技術(shù),以較低成本投入,實(shí)現(xiàn)生產(chǎn)區(qū)域的“作業(yè)安全”、“人員安全”、“機(jī)具安全”閉環(huán)管理
    的頭像 發(fā)表于 09-03 11:57 ?253次閱讀

    圖像識(shí)別算法都有哪些方法

    圖像識(shí)別算法是計(jì)算機(jī)視覺(jué)領(lǐng)域的核心任務(wù)之一,它涉及到從圖像中提取特征并進(jìn)行分類(lèi)、識(shí)別和分析的過(guò)程。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,圖像識(shí)別
    的頭像 發(fā)表于 07-16 11:14 ?5802次閱讀

    圖像識(shí)別算法的提升有哪些

    引言 圖像識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域的核心任務(wù)之一,旨在使計(jì)算機(jī)能夠自動(dòng)地識(shí)別和理解圖像中的內(nèi)容。隨著計(jì)算機(jī)硬件的發(fā)展和深度學(xué)習(xí)技術(shù)的突破,圖像識(shí)別算法
    的頭像 發(fā)表于 07-16 11:12 ?689次閱讀

    圖像識(shí)別算法的優(yōu)缺點(diǎn)有哪些

    圖像識(shí)別算法可以快速地處理大量圖像數(shù)據(jù),提高工作效率。與傳統(tǒng)的人工識(shí)別方法相比,圖像識(shí)別算法
    的頭像 發(fā)表于 07-16 11:09 ?1782次閱讀

    圖像識(shí)別算法的核心技術(shù)是什么

    圖像識(shí)別算法是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要研究方向,其目標(biāo)是使計(jì)算機(jī)能夠像人類(lèi)一樣理解和識(shí)別圖像中的內(nèi)容。圖像識(shí)別算法的核心技術(shù)包括以下幾個(gè)方面
    的頭像 發(fā)表于 07-16 11:02 ?689次閱讀

    opencv圖像識(shí)別有什么算法

    OpenCV(Open Source Computer Vision Library)是一個(gè)開(kāi)源的計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)軟件庫(kù),提供了大量的圖像處理和計(jì)算機(jī)視覺(jué)相關(guān)的算法。以下是一些常見(jiàn)的OpenCV
    的頭像 發(fā)表于 07-16 10:40 ?1138次閱讀

    深度學(xué)習(xí)算法在嵌入式平臺(tái)上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入式平臺(tái)上,仍然是一個(gè)具有挑戰(zhàn)性的任務(wù)。本文將從嵌入式平臺(tái)的特點(diǎn)、
    的頭像 發(fā)表于 07-15 10:03 ?1555次閱讀

    利用Matlab函數(shù)實(shí)現(xiàn)深度學(xué)習(xí)算法

    在Matlab中實(shí)現(xiàn)深度學(xué)習(xí)算法是一個(gè)復(fù)雜但強(qiáng)大的過(guò)程,可以應(yīng)用于各種領(lǐng)域,如圖像識(shí)別、自然語(yǔ)言處理、時(shí)間序列預(yù)測(cè)等。這里,我將概述一個(gè)基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準(zhǔn)備、模型設(shè)計(jì)、訓(xùn)練過(guò)程、以及測(cè)試和評(píng)估,并提供一個(gè)基于Mat
    的頭像 發(fā)表于 07-14 14:21 ?2373次閱讀

    深度學(xué)習(xí)的基本原理與核心算法

    隨著大數(shù)據(jù)時(shí)代的到來(lái),傳統(tǒng)機(jī)器學(xué)習(xí)方法在處理復(fù)雜模式上的局限性日益凸顯。深度學(xué)習(xí)(Deep Learning)作為一種新興的人工智能技術(shù),以其強(qiáng)大的非線性表達(dá)能力和自學(xué)習(xí)能力,在圖像識(shí)別、自然語(yǔ)言
    的頭像 發(fā)表于 07-04 11:44 ?2304次閱讀

    基于毫米波的人體跟蹤和識(shí)別算法

    準(zhǔn)確的人類(lèi)活動(dòng)識(shí)別(HAR)是實(shí)現(xiàn)新興的上下文感知應(yīng)用程序的關(guān)鍵,這些應(yīng)用程序需要了解和識(shí)別人類(lèi)行為,例如監(jiān)測(cè)獨(dú)居的殘疾人或老年人。傳統(tǒng)上,HAR是通過(guò)環(huán)境傳感器(例如,相機(jī))或通過(guò)可穿戴設(shè)備(例如
    發(fā)表于 05-14 18:40

    基于FPGA的常見(jiàn)的圖像算法模塊總結(jié)

    意在給大家補(bǔ)充一下基于FPGA的圖像算法基礎(chǔ),于是講解了一下常見(jiàn)的圖像算法模塊,經(jīng)過(guò)個(gè)人的總結(jié),將知識(shí)點(diǎn)分布如下所示。
    的頭像 發(fā)表于 04-28 11:45 ?628次閱讀
    基于FPGA的常見(jiàn)的<b class='flag-5'>圖像</b><b class='flag-5'>算法</b>模塊總結(jié)

    機(jī)器視覺(jué)在織物缺陷圖像識(shí)別中的應(yīng)用與分析

    基于圖像的織物疵點(diǎn)自動(dòng)檢測(cè)技術(shù)已成為了該領(lǐng)域近年來(lái)的的研究熱點(diǎn),其代替人工織物疵點(diǎn)檢測(cè)的研究算法也逐漸成為可能,主流方法一般分為兩大類(lèi), 一是基于傳統(tǒng)圖像處理的織物缺陷檢測(cè)方法,二是基于深度
    發(fā)表于 02-20 14:24 ?628次閱讀
    機(jī)器視覺(jué)在織物缺陷<b class='flag-5'>圖像</b>識(shí)別中的應(yīng)用與分析