行人再識別是視頻監(jiān)控中一項極具挑戰(zhàn)性的仼務。圖像中的遮擋、光照、姿態(tài)、視角等因素,會對行人再識別的準確率造成極大影響。為了提高行人再識別的準確率,提出一種融合視點機制與姿態(tài)估計的行人再識別方法。首先,采用姿態(tài)估計算法Opeηpose定位行人關節(jié)點;然后,對行亼圖像進行視圖判別以獲得視點信息,并根據視點信息與行人關節(jié)點位置進行局部區(qū)域推薦,生成行人局部圖像;接著,將全局圖像與局部圖像冋時輸入CNN提取特征;最后,采用特征融合網絡將全局與局部的特征融合,以獲取更具魯棒性的特征表示。實驗結果表明:提出的方法具有更高的行人再識別準確率,其在 CHUKO3數據集上的nank1達到了71.3%,在 Market1501和 Dukemtmc-reid數據集上的mAP分別達到了63.2%與60.5%。因此,所提方法能夠很好地應對行人姿態(tài)變化和視角變化等問題。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉