0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于增強通道和空間信息的人體姿態(tài)估計網(wǎng)絡(luò)

WpOh_rgznai100 ? 來源:lq ? 2019-07-18 11:19 ? 次閱讀

【導(dǎo)讀】6 月 16--20 日,計算機視覺與模式識別領(lǐng)域頂會 CVPR 2019 在美國長灘舉行。每年的 CVPR 盛會除了精彩的論文分享、Workshop 與 Tutorial,還會舉辦多場涵蓋計算機視覺各子領(lǐng)域的專項比賽,競爭亦是非常激烈。在此次人體姿態(tài)估計和人體分割比賽中,字節(jié)跳動的兩個團隊榜上有名,收獲兩個冠軍、一個亞軍。

關(guān)于 LIP 競賽

“Look Into Person”(以下簡稱 LIP )國際競賽擁有大規(guī)模的人體姿態(tài)圖像數(shù)據(jù)庫、公平嚴格的評審標準以及國際性的競賽影響力。本屆 LIP 國際競賽吸引了超過 75 支隊伍參加,包括加州伯克利大學、NHN、悉尼科技大學、東南大學、上海交通大學、中國電子科技大學、香港中文大學等全球高校以及三星、字節(jié)跳動、百度、京東等科技企業(yè)的人工智能研究院機構(gòu);包括五個競賽任務(wù),分別是:

  • 單人人體解析分割( the single-person human parsing)

  • 單人人體姿態(tài)估計( the single-person pose estimation)

  • 多人人體解析(the multi-person human parsing)

  • 基于視頻的多人人體解析(multi-person video parsing, multi-person pose estimation benchmark)

  • 基于圖像的服裝試穿(clothes virtual try-on benchmark)

今年的 LIP 國際競賽上,字節(jié)跳動人工智能實驗室拿下了兩個國際冠軍和一個國際亞軍。由字節(jié)跳動和東南大學組成的團隊、以及肖斌帶領(lǐng)的字節(jié)跳動團隊并列單人人體姿態(tài)估計比賽的國際冠軍;同時,字節(jié)跳動和東南大學組成的團隊同時還獲得了單人人體分割賽道的國際亞軍。

在單人人體姿態(tài)估計比賽中,兩個隊伍都刷新了去年的最好成績。其中,由字節(jié)跳動和東南大學組成的團隊提出了基于增強通道和空間信息的人體姿態(tài)估計網(wǎng)絡(luò),參考 CVPR 2019 論文《Multi-Person Pose Estimation with Enhanced Channel-wise and Spatial Information》。

傳送門:

https://arxiv.org/abs/1905.03466

肖斌團隊則提出利用高分辨率網(wǎng)絡(luò)(HRNet)來解決人體姿態(tài)估計問題,參考 CVPR 2019 論文《Deep High-Resolution Representation Learning for Human Pose Estimation》。目前該論文的算法已經(jīng)在 Gituhub 上開源,放地址:

傳送門:

https://github.com/leoxiaobin/deep-high-resolution-net.pytorch

下面為大家詳細介紹兩支冠軍團隊的工作。

技術(shù)解讀(一)

字節(jié)跳動和東南大學組成的團隊提出了基于增強通道和空間信息的人體姿態(tài)估計網(wǎng)絡(luò),論文《Multi-Person Pose Estimation with Enhanced Channel-wise and Spatial Information》的一作蘇凱是來自東南大學模式識別與挖掘?qū)嶒炇遥≒ALM)碩士生三年級,師從東南大學耿新教授。目前在字節(jié)跳動人工智能實驗室實習,導(dǎo)師是喻冬東博士(共同一作)和王長虎博士。

  • 介紹

人體姿態(tài)估計旨在定位出圖片中人的關(guān)鍵身體部位,例如手臂、軀干以及面部的關(guān)鍵點等等。對于行為識別、人體再識別等諸多計算機任務(wù)來說,人體姿態(tài)估計是一項基礎(chǔ)且極具挑戰(zhàn)的課題。由于人與人之間的密切交互、遮擋以及不同尺度人體等因素影響,獲取準確的定位結(jié)果仍然具有困難。

  • 創(chuàng)新點

首先,在卷積神經(jīng)網(wǎng)絡(luò)中,高層特征往往具有更大的感受視野,所以它們對于復(fù)雜場景下的遮擋點、不可見點的推斷更有幫助。另一方面,卷積神經(jīng)網(wǎng)絡(luò)的低層特征往往具有更大的分辨率,所以它們對于關(guān)鍵點的精細調(diào)整更加有效。然而,在現(xiàn)實場景中,高低層特征之間權(quán)衡往往復(fù)雜多變。因此,論文提出通道交流模塊來促進不同分辨率層特征之間的跨通道信息交流。通道交流模塊的目的是通過網(wǎng)絡(luò)自學習來校準高低層特征之間的相互補充和強化。

其次,特征融合的過程是動態(tài)多變的,融合后的特征往往也存在許多冗余。網(wǎng)絡(luò)中那些對姿態(tài)估計任務(wù)更加有效的特征信息應(yīng)該被自適應(yīng)地突顯出來。因此,論文提出基于空間和通道注意力機制的殘差模塊,自適應(yīng)地從空間和通道兩個維度增強剛剛?cè)诤虾蟮慕鹱炙卣餍畔ⅰ?/p>

  • 實驗

論文采用人體關(guān)鍵點檢測的最權(quán)威數(shù)據(jù)集之一 MS COCO(多人人體姿態(tài)數(shù)據(jù)集)。論文的 baseline 采用 Cascaded Pyramid Network(CVPR 2018)。論文首先在 MS COCO 進行消融實驗,以驗證各個模塊的重要性。

表3 可以看出,在只使用通道交流模塊,組數(shù)設(shè)置為 4(CSM-4)的情況下,在 COCO minival 數(shù)據(jù)集的結(jié)果可以由 69.4 提升到 71.7。在只使用空間通道注意力殘差模塊的情況下,結(jié)果可以由 69.4 提升到 70.8。同時使用兩種模塊,結(jié)果進一步提升到 72.1。

其次,論文在 COCO minival(表4)和 test-dev(表5)數(shù)據(jù)集對比了性能最先進的一些網(wǎng)絡(luò)和結(jié)果,均取得了優(yōu)異的超越。

技術(shù)解讀(二)

另一個冠軍隊伍——肖斌帶領(lǐng)的字節(jié)跳動團隊則提出了利用高分辨率網(wǎng)絡(luò)(HRNet)來解決人體姿態(tài)估計問題,以下是技術(shù)解讀。

通用的單人體姿態(tài)識別的框架通常為:給定單人圖片作為輸入,通過 CNN(Convolutional Neural Network)得到高分辨率的人體關(guān)鍵帶的熱點圖片,最后通過在熱點圖片中尋找最大極值點,得到人體關(guān)鍵點坐標。

在介紹 LIP 比賽使用的 HRNet(High Resolution Network)之前,我們先回顧一下人體姿態(tài)識別常用的網(wǎng)路結(jié)構(gòu)。

  • 回顧常用的人體姿態(tài)識別網(wǎng)絡(luò)

首先,先介紹一下人體姿態(tài)識別的經(jīng)典網(wǎng)絡(luò) Stack-Houglass[1],Stack-Hourglass 由普林斯頓大學教授 Jia Deng 團隊首先提出,Stack-Hourglass 網(wǎng)路由多個 stage 組成,每個 stage,遵循從低語義高分辨率特征圖到高語義低分辨率特征圖,然后由高語義低分辨率的特征圖通過上采樣恢復(fù)出高分辨率的特征圖的串行結(jié)構(gòu),同時低語義的高分辨率的特征通過跳連結(jié)和深層的恢復(fù)的高分辨率融合。

在 2018 年,COCO 人體關(guān)鍵點比賽中,曠視團隊提出了 CPN 網(wǎng)絡(luò)(Cascaded Pyramid Network)[2],獲得 COCO 人體姿態(tài)識別的冠軍。CPN 網(wǎng)絡(luò)使用 ResNet 作為骨干網(wǎng)路,采用了類似特征金字塔的結(jié)構(gòu)來生成高分辨的人體姿態(tài)關(guān)鍵點熱點圖。CPN 主干網(wǎng)路也是遵循從高分辨率特征到低分辨率特征的串行結(jié)構(gòu),最后通過跳連結(jié)構(gòu)以及上采樣操作,得到最終的高分辨率的熱點特征圖。

2018 ECCV 會議上,在人體姿態(tài)關(guān)鍵點檢測任務(wù)中,微軟亞洲研究院提出了一種通過三層級聯(lián)的反卷積方法——Simple Baseline[3],來解碼 ResNet 主干網(wǎng)路的低分辨率特征。這個方法很簡單,但在人體關(guān)鍵點識別任務(wù)中取得了非常不錯的成績。Simple Baseline 的方法也遵循了從高分率到低分辨率學習,然后從低分辨率特征恢復(fù)高分辨特征的原則。

到這里總結(jié)一下,我們可以看出在人體關(guān)鍵點識別任務(wù)中,人體姿態(tài)識別的網(wǎng)路有以下幾大特征:

(1)網(wǎng)絡(luò)設(shè)計的結(jié)構(gòu)都遵循從高分辨率到低分辨率的串行連接結(jié)構(gòu);

(2)高分辨率的人體姿態(tài)高分辨率熱點圖,都需要從低分辯的特征圖恢復(fù)得到;

(3)通常,恢復(fù)的高分辨率特征圖需要融合淺層的高分辨特征圖。

  • 為什么選擇 HRNet?

我們認為在人體關(guān)鍵點檢測任務(wù)中,是需要一個更強的高分辨表達的特征圖,從技術(shù)路線上不應(yīng)該只局限在從低分辨率特征來恢復(fù)或解碼高分辨率特征這一種路線上,而應(yīng)該直接通過網(wǎng)路來學習高分辨率的特征表達。

因此,我們選擇了一種高分辨率表達的網(wǎng)路(High-Resolution Network,HRNet)[4]來做人體關(guān)鍵點檢測任務(wù)。HRNet 在網(wǎng)路整個過程中維持或?qū)W習高分辨率的特征,漸進的增加低分辨率的的分支,并且通過特征交換模塊,多次進行高分辨率和低分辨率的特征交換,從而學到足夠豐富的高分辨率特征。

  • HRNet 的與眾不同之處

通過對比我們可以看到 HRNet 和之前的網(wǎng)絡(luò)具有很大的不同:

首先,HRNet 的高分辨率特征和低分辨率特征是并行連接。其次,HRNet 始終會學習一個高分辨率的特征表達。最后,HRNet 是通過多次的高分辨率特征和低分辨率特征的交換,來進一步增強高分辨率特征的學習。通過這種方式,HRNet 可以學到更強的高分辨率的特征表達。

HRNet 不僅在 LIP 人體姿態(tài)識別任務(wù)中取得了冠軍的結(jié)果。在其他人體姿態(tài)識別的數(shù)據(jù)集上如 COCO 關(guān)鍵點檢測任務(wù),PoseTrack 人體姿態(tài)識別以及跟蹤任務(wù),MPII 人體字體識別任務(wù)中都得到了 State-of-the-art 的結(jié)果。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:刷新記錄,算法開源!字節(jié)跳動獲人體姿態(tài)估計競賽雙冠 | CVPR 2019

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【愛芯派 Pro 開發(fā)板試用體驗】人體姿態(tài)估計模型部署前期準備

    Bottom-up類型的。 3、Openpose/lightweight openpose模型 首先要用到的是Openpose模型,這應(yīng)該是最有名的人體姿態(tài)估計的模型了,因為是首個開源的人體
    發(fā)表于 01-01 01:04

    請問一下end-to-end的人姿態(tài)估計器開發(fā)流程有哪些

    請問一下end-to-end的人姿態(tài)估計器開發(fā)流程有哪些?
    發(fā)表于 02-16 07:25

    基于姿態(tài)校正的人臉檢測方法

    本人提出了一種基于姿態(tài)校正的人臉檢測方法,在此基礎(chǔ)上,提出姿態(tài)角度估計目標函數(shù),并討論了2種尋優(yōu)方法,該方法在自拍的視頻序列中進行姿態(tài)
    發(fā)表于 04-13 17:24 ?30次下載
    基于<b class='flag-5'>姿態(tài)</b>校正<b class='flag-5'>的人</b>臉檢測方法

    改進PSO優(yōu)化神經(jīng)網(wǎng)絡(luò)算法的人體姿態(tài)識別_何佳佳

    改進PSO優(yōu)化神經(jīng)網(wǎng)絡(luò)算法的人體姿態(tài)識別_何佳佳
    發(fā)表于 03-19 11:41 ?1次下載

    騰訊優(yōu)圖實驗室在人體2D姿態(tài)估計中獲得了創(chuàng)新技術(shù)突破

    近日,騰訊優(yōu)圖實驗室在人體2D姿態(tài)估計任務(wù)中獲得創(chuàng)新性技術(shù)突破,其提出的基于語義對抗的數(shù)據(jù)增強算法Adversarial Semantic Data Augmentation (ASD
    的頭像 發(fā)表于 10-26 14:12 ?2713次閱讀
    騰訊優(yōu)圖實驗室在<b class='flag-5'>人體</b>2D<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>中獲得了創(chuàng)新技術(shù)突破

    基于深度學習的二維人體姿態(tài)估計方法

    基于深度學習的二維人體姿態(tài)估計方法通過構(gòu)建特定的神經(jīng)網(wǎng)絡(luò)架構(gòu),將提取的特征信息根據(jù)相應(yīng)的特征融合方法進行
    發(fā)表于 03-22 15:51 ?5次下載
    基于深度學習的二維<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>方法

    基于深度學習的二維人體姿態(tài)估計算法

    近年來人體姿態(tài)估計作為計算機視覺領(lǐng)域的熱點,在視頻監(jiān)控、人機交互、智慧校園等領(lǐng)域具有廣泛的應(yīng)用前景。隨著神經(jīng)網(wǎng)絡(luò)的快速發(fā)展,采用深度學習方法進行二維
    發(fā)表于 04-27 16:16 ?7次下載
    基于深度學習的二維<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>算法

    基于編解碼殘差的人體姿態(tài)估計方法

    人體姿態(tài)估計尤其是多人姿態(tài)估計逐漸滲透到教育、體育等各個方面,精度高、輕量級的多人姿態(tài)
    發(fā)表于 05-28 16:35 ?2次下載

    移動和嵌入式人體姿態(tài)估計

    轉(zhuǎn)載自:移動和嵌入式人體姿態(tài)估計(Mobile and Embedded Human Pose Estimation)作者:Arrow背景現(xiàn)有的大部分模型都是在PC(帶有超級強大...
    發(fā)表于 01-26 18:25 ?3次下載
    移動和嵌入式<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>

    硬件加速人體姿態(tài)估計開源分享

    電子發(fā)燒友網(wǎng)站提供《硬件加速人體姿態(tài)估計開源分享.zip》資料免費下載
    發(fā)表于 06-25 10:27 ?0次下載
    硬件加速<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>開源分享

    利用opencv+openpose實現(xiàn)人體姿態(tài)檢測

    利用opencv+openpose實現(xiàn),接著我又開始找一些資料,在pycharm上部署。 前言 人體姿態(tài)估計的一個有趣應(yīng)用是 CGI(computer graphic image,一種電影制造技術(shù))應(yīng)用。如果
    的頭像 發(fā)表于 06-26 10:15 ?3019次閱讀
    利用opencv+openpose實現(xiàn)<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b>檢測

    AI深度相機-人體姿態(tài)估計應(yīng)用

    我們非常高興地發(fā)布一個新的代碼示例,展示虹科AI深度相機SDK的驚人功能。只需6行源代碼,您就可以實時準確地估計和跟蹤人體姿態(tài)!我們最新的代碼示例使用AI機器學習技術(shù)來識別和跟蹤人體
    的頭像 發(fā)表于 07-31 17:42 ?1014次閱讀
    AI深度相機-<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>應(yīng)用

    基于MMPose的姿態(tài)估計配置案例

    將統(tǒng)一的人體姿態(tài)分析框架解耦成不同的模塊組件,通過組合不同的模塊組件,可以便捷地構(gòu)建自定義人體姿態(tài)分析模型。 本文主要對動物關(guān)鍵點檢測模型進行微調(diào)與測試,從數(shù)據(jù)集構(gòu)造開始,詳細解釋各
    發(fā)表于 09-15 10:07 ?1167次閱讀
    基于MMPose的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>配置案例

    基于飛控的姿態(tài)估計算法作用及原理

    ? 姿態(tài)估計的作用? 姿態(tài)估計是飛控算法的一個基礎(chǔ)部分,而且十分重要。為了完成飛行器平穩(wěn)的姿態(tài)控制,首先需要精準的
    發(fā)表于 11-13 11:00 ?1039次閱讀
    基于飛控的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>算法作用及原理

    使用愛芯派Pro開發(fā)板部署人體姿態(tài)估計模型

    部署模型的整體架構(gòu)。接下來就回到最開始定的主線上了——人體姿態(tài)估計。這篇文章就是記錄對一些輕量化人體姿態(tài)
    的頭像 發(fā)表于 01-09 09:50 ?1432次閱讀
    使用愛芯派Pro開發(fā)板部署<b class='flag-5'>人體</b><b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>模型