0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌發(fā)布MediaPipe Holistic,實(shí)現(xiàn)移動(dòng)端進(jìn)行人體關(guān)鍵點(diǎn)檢測(cè)跟蹤

RTThread物聯(lián)網(wǎng)操作系統(tǒng) ? 來源:RTThread物聯(lián)網(wǎng)操作系統(tǒng) ? 作者:RTThread物聯(lián)網(wǎng)操作 ? 2020-12-29 09:16 ? 次閱讀

導(dǎo)讀:本期為 AI 簡(jiǎn)報(bào) 20201225 期,將為您帶來 6 條相關(guān)新聞,有趣有料無水文~

1. 170 FPS!YolactEdge:邊緣設(shè)備上的實(shí)時(shí)實(shí)例分割,已開源!

Paper: https://arxiv.org/abs/2012.12259
Github: https://github.com/haotian-liu/yolact_edge

本文提出了YolactEdge實(shí)時(shí)實(shí)例分割方法,可以在小型邊緣設(shè)備上以實(shí)時(shí)速度運(yùn)行。具體來說,在550x550分辨率的圖像上,帶有ResNet-101主干的YolactEdge在Jetson AGX Xavier上的運(yùn)行速度高達(dá)30.8FPS(在RTX 2080Ti上的運(yùn)行速度為172.7FPS)。為了實(shí)現(xiàn)這一目標(biāo),我們對(duì)基于圖像的最新實(shí)時(shí)方法YOLACT進(jìn)行了兩項(xiàng)改進(jìn): 1)優(yōu)化TensorRT,同時(shí)謹(jǐn)慎權(quán)衡速度和準(zhǔn)確性; 2)利用視頻中時(shí)間冗余的新型特征扭曲模塊。 在YouTube VIS和MS COCO數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,與現(xiàn)有的實(shí)時(shí)方法相比,YolactEdge的速度提高了3-5倍,同時(shí)具有極好的mask和box檢測(cè)精度。

2. 谷歌發(fā)布 MediaPipe Holistic,實(shí)現(xiàn)移動(dòng)端同時(shí)進(jìn)行人臉、手部和人體關(guān)鍵點(diǎn)檢測(cè)跟蹤

Github:https://github.com/google/mediapipe

原文鏈接:

https://ai.googleblog.com/2020/12/mediapipe-holistic-simultaneous-face.html

谷歌MediaPipe Holistic為突破性的 540 多個(gè)關(guān)鍵點(diǎn)(33 個(gè)姿勢(shì)、21 個(gè)手和468 個(gè)人臉關(guān)鍵點(diǎn))提供了統(tǒng)一的拓?fù)浣Y(jié)構(gòu),并在移動(dòng)設(shè)備上實(shí)現(xiàn)了近乎實(shí)時(shí)的性能。 谷歌之前發(fā)布的MediaPipe就是一個(gè)專門為GPUCPU而設(shè)計(jì)的開源框架,已經(jīng)為這些單個(gè)任務(wù)提供了快速、準(zhǔn)確而又獨(dú)立的解決方案。 但將它們實(shí)時(shí)組合成一個(gè)語義一致的端到端解決方案,仍是一個(gè)難題,需要多個(gè)依賴性神經(jīng)網(wǎng)絡(luò)的同步推理。 不久前,谷歌發(fā)布了 MediaPipe Holistic,就是針對(duì)上述挑戰(zhàn)而提出一個(gè)解決方案,提出一個(gè)最新最先進(jìn)的人體姿勢(shì)拓?fù)浣Y(jié)構(gòu),可以解鎖新的應(yīng)用。

3. 樹莓派深度學(xué)習(xí):目標(biāo)檢測(cè)

原文地址:https://zhuanlan.zhihu.com/p/110290326

作者之前已經(jīng)是實(shí)現(xiàn)了樹莓派4B上的深度學(xué)習(xí)環(huán)境搭建和測(cè)試,

https://zhuanlan.zhihu.com/p/110013867

這一篇是在樹莓派上運(yùn)行深度學(xué)習(xí)目標(biāo)檢測(cè)模型進(jìn)行推理的效果,

主要是基于TensorFlow目標(biāo)檢測(cè)API,

并從該項(xiàng)目的一個(gè)子頁面下載訓(xùn)練好的模型和權(quán)重,

直接進(jìn)行目標(biāo)檢測(cè)的推理過程。

步驟如下:

下載安裝TensorFlow目標(biāo)檢測(cè)API

配置環(huán)境

下載模型

運(yùn)行

4. Docker 從入門到干活,看這一篇足矣

本文來自:cnblogs.com/clsn/p/8410309.html

Docker作為一個(gè)非常好的環(huán)境隔離神器,在機(jī)器學(xué)習(xí)圈也越來越火了。那么,Docker是什么,怎么用,相信大家看完本文,會(huì)對(duì)它有一個(gè)比較全面的認(rèn)識(shí)

分別從以下幾個(gè)方面來介紹:

容器簡(jiǎn)介

什么是 Docker

安裝 Docker

Docker鏡像相關(guān)操作

容器的日常管理

5. 亞馬遜李沐團(tuán)隊(duì)提出:(開源) 行為識(shí)別的全面調(diào)研 2014-2020

737beeb8-48cf-11eb-8b86-12bb97331649.png

30頁行為識(shí)別綜述,共計(jì)283篇參考文獻(xiàn)!Amusi 認(rèn)為這是目前2020年看到的關(guān)于行為識(shí)別(視頻理解)最好且最全面的綜述。 本文對(duì)基于深度學(xué)習(xí)的視頻行為識(shí)別(Video Action Recognition)論文進(jìn)行了全面調(diào)研,按時(shí)間順序詳細(xì)介紹并盤點(diǎn)出重要工作,還統(tǒng)計(jì)出了17個(gè)視頻行為識(shí)別數(shù)據(jù)集,最后還復(fù)現(xiàn)了大量?jī)?yōu)秀工作的代碼,現(xiàn)已開源!

6. AWS與NVIDIA合作伙伴通過嵌入式AI簡(jiǎn)化構(gòu)建應(yīng)用程序

最近,NVIDIA與亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)通過在AWS Marketplace中提供NVIDIA店面,宣布了一項(xiàng)合作伙伴關(guān)系,旨在簡(jiǎn)化將AI功能嵌入應(yīng)用程序的過程??傆?jì),NVIDIA將免費(fèi)提供21種軟件工具,以幫助使用AWS的開發(fā)人員構(gòu)建GPU加速的AI應(yīng)用程序。這將在醫(yī)療保健,金融,零售,智慧城市等多個(gè)領(lǐng)域引起廣泛關(guān)注。 自2017年以來,NVIDIA一直通過其NVIDIA GPU優(yōu)化云(NGC)目錄以及AWS Marketplace上的一些單獨(dú)組件提供了GPU加速軟件。

但是,這是Nvidia的整個(gè)產(chǎn)品組合首次進(jìn)入AWS Marketplace。NGC目錄將NVIDIA的GPU加速軟件工具集中在一起。它包含數(shù)百個(gè)機(jī)器學(xué)習(xí)(ML)框架和行業(yè)特定的軟件開發(fā)套件,數(shù)據(jù)科學(xué)家和開發(fā)人員可以使用它們來構(gòu)建AI解決方案。 NVIDIA聲稱250,000名用戶已經(jīng)從NGC目錄中下載了超過100萬個(gè)AI容器,預(yù)訓(xùn)練的模型,應(yīng)用程序框架,Helm圖表和其他ML資源。 你可以添加微信17775982065為好友,注明:公司+姓名,拉進(jìn)RT-Thread 官方微信交流群!

責(zé)任編輯:xj

原文標(biāo)題:【20201225期AI簡(jiǎn)報(bào)】YolactEdge:邊緣設(shè)備上的實(shí)時(shí)實(shí)例分割,已開源!

文章出處:【微信公眾號(hào):RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6179

    瀏覽量

    105752
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3392

    瀏覽量

    42623
  • 樹莓派
    +關(guān)注

    關(guān)注

    117

    文章

    1710

    瀏覽量

    105787

原文標(biāo)題:【20201225期AI簡(jiǎn)報(bào)】YolactEdge:邊緣設(shè)備上的實(shí)時(shí)實(shí)例分割,已開源!

文章出處:【微信號(hào):RTThread,微信公眾號(hào):RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    ADS1294R電極脫落檢測(cè)呼吸測(cè)量異常的原因?怎么處理?

    上下電路進(jìn)行電極脫落檢測(cè)時(shí),漏電流達(dá)到0.2uA,不符合標(biāo)準(zhǔn)要求??煞裼懈涌煽康姆绞??以前的設(shè)計(jì)采用上拉40M的電阻實(shí)現(xiàn)。 不知道ADS1294的電極脫落檢測(cè)功能是否能夠滿足標(biāo)準(zhǔn)和可
    發(fā)表于 01-02 07:31

    采用3.3V單電源對(duì)ADS1298進(jìn)行供電,檢測(cè)不到電極狀態(tài)怎么解決?

    我計(jì)劃采用3.3V單電源對(duì)ADS1298進(jìn)行供電,按照參考設(shè)計(jì),模擬輸入需要把共模電壓抬升至1.5V左右,采用大電阻分壓的方式實(shí)現(xiàn),此外前面還要串聯(lián)一個(gè)電容。 正是由于這個(gè)電容的存在,阻斷了到導(dǎo)聯(lián)脫落
    發(fā)表于 12-06 07:13

    人工智能教學(xué)實(shí)驗(yàn)箱操作案例分享:手部檢測(cè)

    一、實(shí)驗(yàn)?zāi)康?本節(jié)視頻的目的是了解MediaPipe開發(fā)框架的用途及流程,并掌握基于MediaPipe Hands實(shí)現(xiàn)手部檢測(cè)的方法。 二、實(shí)驗(yàn)原理
    發(fā)表于 12-05 15:16

    《DNK210使用指南 -CanMV版 V1.0》第四十四章 人臉68關(guān)鍵點(diǎn)檢測(cè)實(shí)驗(yàn)

    的KPU對(duì)象。然后便是在一個(gè)循環(huán)中不斷地獲取攝像頭輸出的圖像,首先將圖像進(jìn)行人檢測(cè),檢測(cè)圖像中存在的人臉,接著對(duì)人臉圖像進(jìn)行68關(guān)鍵
    發(fā)表于 11-18 14:28

    如何用OpenCV的相機(jī)捕捉視頻進(jìn)行人檢測(cè)--基于米爾NXP i.MX93開發(fā)板

    功能,首先要進(jìn)行人檢測(cè),判斷出圖片中人臉的位置,才能進(jìn)行下一步的操作。 OpenCV人臉檢測(cè)方法 在OpenCV中主要使用了兩種特征(即兩種方法)
    發(fā)表于 11-15 17:58

    24G雷達(dá)模塊LD2450 支持人體移動(dòng)軌跡跟蹤與手勢(shì)識(shí)別

    24G人體移動(dòng)軌跡跟蹤雷達(dá)模塊TARGETTRAJECTORYTRACKINGRADARMODULE24GHz雷達(dá)傳感器HLK-LD2450主要用來檢測(cè)6米目標(biāo)范圍內(nèi)的
    的頭像 發(fā)表于 10-27 08:03 ?383次閱讀
    24G雷達(dá)模塊LD2450 支持<b class='flag-5'>人體</b><b class='flag-5'>移動(dòng)</b>軌跡<b class='flag-5'>跟蹤</b>與手勢(shì)識(shí)別

    卡巴斯基稱谷歌網(wǎng)絡(luò)跟蹤器活躍量全球第一

    卡巴斯基最新發(fā)布的2024年度網(wǎng)絡(luò)追蹤報(bào)告顯示,谷歌公司的網(wǎng)絡(luò)跟蹤器在全球范圍內(nèi)的活躍量穩(wěn)居榜首,這一現(xiàn)象再次引發(fā)了公眾對(duì)在線隱私保護(hù)的關(guān)注。
    的頭像 發(fā)表于 09-27 14:51 ?355次閱讀

    ESP32-S3運(yùn)行人檢測(cè)功耗有多大呢?

    ESP32-S3運(yùn)行人檢測(cè),功耗有多大?
    發(fā)表于 06-26 06:32

    谷歌地圖正在對(duì)隱私進(jìn)行重大更改

    谷歌地圖正在改變它處理您的位置數(shù)據(jù)的方式。谷歌將很快將數(shù)據(jù)本地存儲(chǔ)在您的設(shè)備上,而不是將您的數(shù)據(jù)備份到云端。 在發(fā)給用戶的一封電子郵件中,谷歌表示,在移動(dòng)設(shè)備開始刪除你的舊數(shù)據(jù)之前,你
    的頭像 發(fā)表于 06-13 16:44 ?759次閱讀

    微波移動(dòng)檢測(cè)器對(duì)人體有影響嗎

    微波移動(dòng)檢測(cè)器,又稱為微波雷達(dá)探測(cè)器,是一種利用微波技術(shù)進(jìn)行移動(dòng)物體檢測(cè)的設(shè)備。它廣泛應(yīng)用于安全監(jiān)控、交通管理、工業(yè)自動(dòng)化等領(lǐng)域。然而,關(guān)于微波移動(dòng)檢測(cè)器對(duì)
    的頭像 發(fā)表于 05-27 16:11 ?911次閱讀

    多目標(biāo)跟蹤算法總結(jié)歸納

    多目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域中的一個(gè)重要任務(wù),它旨在從視頻或圖像序列中準(zhǔn)確地檢測(cè)跟蹤多個(gè)移動(dòng)目標(biāo)。不過在落地部署時(shí),有一些關(guān)鍵點(diǎn)需要解決。
    的頭像 發(fā)表于 04-28 09:42 ?2092次閱讀
    多目標(biāo)<b class='flag-5'>跟蹤</b>算法總結(jié)歸納

    英碼科技EA500I基于昇騰Mind SDK實(shí)現(xiàn)實(shí)時(shí)人體關(guān)鍵點(diǎn)檢測(cè)

    在教育、體育、安防、交通、醫(yī)療等領(lǐng)域中,實(shí)時(shí)人體關(guān)鍵點(diǎn)檢測(cè)應(yīng)用發(fā)揮著至關(guān)重要的作用,比如在體育訓(xùn)練時(shí),實(shí)時(shí)人體關(guān)鍵
    的頭像 發(fā)表于 04-21 17:44 ?1038次閱讀
    英碼科技EA500I基于昇騰Mind SDK<b class='flag-5'>實(shí)現(xiàn)實(shí)時(shí)人體</b><b class='flag-5'>關(guān)鍵</b><b class='flag-5'>點(diǎn)檢測(cè)</b>

    英碼科技EA500I基于昇騰Mind SDK實(shí)現(xiàn)實(shí)時(shí)人體關(guān)鍵點(diǎn)檢測(cè)

    在教育、體育、安防、交通、醫(yī)療等領(lǐng)域中,實(shí)時(shí)人體關(guān)鍵點(diǎn)檢測(cè)應(yīng)用發(fā)揮著至關(guān)重要的作用,比如在體育訓(xùn)練時(shí),實(shí)時(shí)人體關(guān)鍵
    的頭像 發(fā)表于 04-20 08:25 ?595次閱讀
    英碼科技EA500I基于昇騰Mind SDK<b class='flag-5'>實(shí)現(xiàn)實(shí)時(shí)人體</b><b class='flag-5'>關(guān)鍵</b><b class='flag-5'>點(diǎn)檢測(cè)</b>

    理想汽車自動(dòng)駕駛模型實(shí)現(xiàn)

    理想汽車在感知、跟蹤、預(yù)測(cè)、決策和規(guī)劃等方面都進(jìn)行了模型化,最終實(shí)現(xiàn)的模型。這種模型不僅完全模型化,還能夠虛擬化,即在模擬環(huán)境中
    發(fā)表于 04-12 12:17 ?482次閱讀
    理想汽車自動(dòng)駕駛<b class='flag-5'>端</b>到<b class='flag-5'>端</b>模型<b class='flag-5'>實(shí)現(xiàn)</b>

    谷歌交互世界模型重磅發(fā)布

    谷歌模型
    北京中科同志科技股份有限公司
    發(fā)布于 :2024年02月28日 09:13:06