0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的無信標(biāo)自動追蹤工具

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-09-06 09:06 ? 次閱讀

對于動物行為研究,特別是運動模式的分析很大程度上依賴于研究人員的人工觀察和分析。但研究人員近日開發(fā)的新工具有望能夠為研究人員們提供省時省力的新方法來對動物的行為進(jìn)行持續(xù)的自動觀測。

來自哈佛大學(xué)的科學(xué)家與合作伙伴研發(fā)出了基于深度學(xué)習(xí)的無信標(biāo)自動追蹤工具,可以在視頻中持續(xù)追蹤動物及其身上特征點的運動,并達(dá)到了人類的精度水平。近日研究發(fā)表在了自然神經(jīng)科學(xué)的雜志上。

在神經(jīng)科學(xué)中,定量的行為觀察對于很多方面都是至關(guān)重要的。雖然攝像機(jī)為人們提供了一種便捷的手段來對動物進(jìn)行觀察,提取特定行為并進(jìn)行進(jìn)一步分析常常是耗時耗力的工作。為了定量的監(jiān)控,研究對象通常會被打上一定的信標(biāo)來實現(xiàn)自動追蹤,但很多情況下信標(biāo)具有侵入性和缺乏靈活性等缺點。為了解決這些問題,研究人員們利用深度網(wǎng)絡(luò)從視頻中實現(xiàn)了動物行為的無信標(biāo)追蹤,并達(dá)到了人類的精度水平。

通過構(gòu)建深度網(wǎng)絡(luò)和數(shù)據(jù)集,研究人員們成功訓(xùn)練出了一個可以從視頻中抽取身體特定部分位置的模型。研究人員門分別標(biāo)注了圖像中的ROI區(qū)域和每個區(qū)域中的關(guān)節(jié)作為輸入特征。神經(jīng)網(wǎng)絡(luò)使用預(yù)訓(xùn)練的ResNet-50最為主體抽取特征,最后通過訓(xùn)練解卷積網(wǎng)絡(luò)來對于身體位置的預(yù)測。

研究人員表示,這一方法甚至只需要標(biāo)注約200張對應(yīng)的圖像就可以達(dá)到很好的精度,并且可以將精度控制在幾個像素的范圍內(nèi)。

利用1080TiGPU,這一工具可以再682*540的圖像上實現(xiàn)30Hz的速度,并在分辨率更低的204*162像素上達(dá)到了85Hz的速度。

這種方法還可以廣泛用于多種動物和場景下。研究人員利用四個實驗探索了網(wǎng)絡(luò)功能的有效性。

首先在彩色圖像中對馬兒的身體關(guān)鍵點進(jìn)行了檢測和追蹤。研究顯示網(wǎng)絡(luò)對于不同顏色、不同視角和速度下的馬都有著較強(qiáng)的追蹤性能。

除此之外,研究人員還將這一方法應(yīng)用于老鼠的步態(tài)研究上,下圖顯示了老鼠在跑輪上運動的場景。模型被用于從側(cè)面和地面同時檢測和跟蹤運動。右圖顯示了模型對于電動魚身體關(guān)鍵點的追蹤??梢钥吹綗o論是對不同場景視角還是不同的物種,都可以得到良好的效果。

除了動物之外,這一網(wǎng)絡(luò)還可以用于追蹤人類行為及其三維位置。研究人員訓(xùn)練了三個視角下的追蹤網(wǎng)絡(luò),并將得到的數(shù)據(jù)通過投影矩陣重構(gòu)目標(biāo)對象的3D運動坐標(biāo),實現(xiàn)了三維目標(biāo)檢測與跟蹤。

值得一提的是,這一研究團(tuán)隊來自哈佛大學(xué)Rowland Institute, Adaptive motor control實驗室,長期致力于深入理解神經(jīng)系統(tǒng)的自適應(yīng)運動控制。

或許這種方法除了用于動物行為追蹤外,還可以用于機(jī)器人及其執(zhí)行器的末端追蹤,為抓取、放置的任務(wù)提供額外的信息。如果你想詳細(xì)了解這項研究,請參閱Nature的研究內(nèi)容:

https://www.nature.com/articles/s41593-018-0209-y

作者也發(fā)布了DeepLabCut的代碼,有興趣的小伙伴似乎可以為自家的狗子/貓寫一個行為追蹤程序,研究它們每天的活動規(guī)律呢~代碼地址:

https://github.com/AlexEMG/DeepLabCut

作者在這里給出了詳細(xì)的安裝、配置、使用和標(biāo)注教程

https://alexemg.github.io/DeepLabCut/docs/demo-guide.html

(代碼主要基于TensorFlow構(gòu)建,包含了分析、測評工具和對應(yīng)的文檔。構(gòu)建網(wǎng)絡(luò)的核心代碼位于DeepLabCut/pose-tensorflow/pose_net.py的PoseNet類中。)

實驗室主頁:

https://www.mousemotorlab.org/deeplabcut/

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:被盯上了!說你吶~哈佛大學(xué)研發(fā)出基于深度學(xué)習(xí)的無信標(biāo)自動追蹤工具,可準(zhǔn)確追蹤動物運動

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AI自動化生產(chǎn):深度學(xué)習(xí)在質(zhì)量控制中的應(yīng)用

    隨著科技的飛速發(fā)展,人工智能(AI)與深度學(xué)習(xí)技術(shù)正逐步滲透到各個行業(yè),特別是在自動化生產(chǎn)中,其潛力與價值愈發(fā)凸顯。深度學(xué)習(xí)軟件不僅使人工和
    的頭像 發(fā)表于 01-17 16:35 ?64次閱讀
    AI<b class='flag-5'>自動</b>化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在質(zhì)量控制中的應(yīng)用

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?742次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識別、自動駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過程。 二、自然語言處理 自然語言處理(NLP)是深度
    的頭像 發(fā)表于 10-27 11:13 ?444次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?466次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?1048次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    中的性能和效率。同時,也可能會出現(xiàn)一些新的基于 FPGA 的深度學(xué)習(xí)算法創(chuàng)新,拓展其應(yīng)用領(lǐng)域。 ? 應(yīng)用領(lǐng)域的拓展:除了在圖像識別、語音處理、自動駕駛等領(lǐng)域的應(yīng)用,F(xiàn)PGA 在深度
    發(fā)表于 09-27 20:53

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?644次閱讀

    深度學(xué)習(xí)中的時間序列分類方法

    的發(fā)展,基于深度學(xué)習(xí)的TSC方法逐漸展現(xiàn)出其強(qiáng)大的自動特征提取和分類能力。本文將從多個角度對深度學(xué)習(xí)在時間序列分類中的應(yīng)用進(jìn)行綜述,探討常用
    的頭像 發(fā)表于 07-09 15:54 ?1080次閱讀

    深度學(xué)習(xí)中的監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實現(xiàn)。因此,監(jiān)督學(xué)習(xí)深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的
    的頭像 發(fā)表于 07-09 10:50 ?854次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    方法,它通過模擬人腦的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),實現(xiàn)對數(shù)據(jù)的自動特征提取和學(xué)習(xí)。深度學(xué)習(xí)的核心是構(gòu)建多層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),每一層都包含大量的神經(jīng)元,這些神經(jīng)元通過權(quán)重連接,實現(xiàn)對輸入數(shù)據(jù)的逐層抽象和
    的頭像 發(fā)表于 07-05 09:47 ?1007次閱讀

    深度學(xué)習(xí)常用的Python庫

    深度學(xué)習(xí)作為人工智能的一個重要分支,通過模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來解決復(fù)雜問題。Python作為一種流行的編程語言,憑借其簡潔的語法和豐富的庫支持,成為了深度學(xué)習(xí)研究和應(yīng)用的首選
    的頭像 發(fā)表于 07-03 16:04 ?680次閱讀

    深度學(xué)習(xí)自動駕駛中的關(guān)鍵技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,自動駕駛技術(shù)作為其中的重要分支,正逐漸走向成熟。在自動駕駛系統(tǒng)中,深度學(xué)習(xí)技術(shù)發(fā)揮著至關(guān)重要的作用。它通過模擬人腦的學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:40 ?828次閱讀

    深度學(xué)習(xí)編譯工具鏈中的核心——圖優(yōu)化

    等,需要調(diào)整優(yōu)化網(wǎng)絡(luò)中使用的算子或算子組合,這就是深度學(xué)習(xí)編譯工具鏈中的核心——圖優(yōu)化。圖優(yōu)化是指對深度學(xué)習(xí)模型的計算圖進(jìn)行分析和優(yōu)化的過程
    的頭像 發(fā)表于 05-16 14:24 ?1020次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>編譯<b class='flag-5'>工具</b>鏈中的核心——圖優(yōu)化

    深度解析深度學(xué)習(xí)下的語義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計算機(jī)視覺的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)的檢測、識別和分類等領(lǐng)域。近年來,研究人員開始在視覺SLAM算法中引入深度學(xué)習(xí)技術(shù),使得
    發(fā)表于 04-23 17:18 ?1343次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>下的語義SLAM

    為什么深度學(xué)習(xí)的效果更好?

    導(dǎo)讀深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個子集,已成為人工智能領(lǐng)域的一項變革性技術(shù),在從計算機(jī)視覺、自然語言處理到自動駕駛汽車等廣泛的應(yīng)用中取得了顯著的成功。深度
    的頭像 發(fā)表于 03-09 08:26 ?655次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?