0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TensorFlow.js制作了一個僅用 200 余行代碼的項目

lviY_AI_shequ ? 來源:機器之心 ? 2020-05-11 18:08 ? 次閱讀

只需網(wǎng)頁端,秒速消失不留痕。

Jason Mayes 是一名在谷歌工作的資深網(wǎng)頁工程師,他長期致力于運用新興技術(shù)提供物聯(lián)網(wǎng)解決方案。近日,充滿奇思妙想的 Mayes 又使用 TensorFlow.js 制作了一個僅用 200 余行代碼的項目,名為 Real-Time-Person-Removal。它能夠?qū)崟r將復(fù)雜背景中的人像消除,而且僅基于網(wǎng)頁端。 現(xiàn)在,Mayes 在 GitHub 上開源了他的代碼,并在 Codepen.io 上提供了演示 Demo。從視頻中看到,你現(xiàn)在只需要一臺能上網(wǎng)的電腦和一個網(wǎng)絡(luò)攝像頭就能體驗它。

項目地址:https://github.com/jasonmayes/Real-Time-Person-Removal

Demo 地址:https://codepen.io/jasonmayes/pen/GRJqgma

目前,該項目異?;馃?,在 Github 上已經(jīng)獲得了 3.4k 的 Star 量。 實時隱身不留痕項目作者:Jason Mayes 我們先來看一下運行的效果。下圖中,上半部分是原始視頻,下半部分是使用 TensorFlow.js 對人像進行消除后的視頻??梢钥吹剑伺紶枙谶吘壧幜粲袣堄爸?,整體效果還是很不錯的。 為了展現(xiàn)這個程序在復(fù)雜背景下消除人像并重建背景的能力,Mayes 特意在床上放了一臺正在播放視頻的筆記本電腦。當(dāng)他的身體遮擋住筆記本電腦時,可以看到消除算法暫停在電腦被遮擋前的播放畫面,并能在人移開時迅速地重建出當(dāng)前畫面。

此外,Mayes 還在 Codepen.io 上提供了能夠直接運行的示例。只需要點擊 Enable Webcam,離開攝像頭一段距離確保算法能夠較全面的收集到背景圖像,之后當(dāng)你再出現(xiàn)在攝像頭前時就能從下方的預(yù)覽窗口看到「隱形」后的畫面了。

網(wǎng)友表示有了這個程序,像之前 BBC 直播中孩子闖進門來那樣的大型翻車現(xiàn)場就有救了。 項目運行機制 Mayes 開發(fā)的這個人像消除程序背后的運行機制十分簡單,他使用了 TensorFlow.js 中提供的一個預(yù)訓(xùn)練的 MobileNet,用于人像分割。

constbodyPixProperties={ architecture:'MobileNetV1', outputStride:16, multiplier:0.75, quantBytes:4 };

TensorFlow.js 提供的部分計算機視覺預(yù)訓(xùn)練模型。 MobileNet 是谷歌在 2017 年針對移動端和嵌入式設(shè)備提出的網(wǎng)絡(luò),針對圖像分割。其核心思想是使用深度可分離卷積構(gòu)建快速輕量化的網(wǎng)絡(luò)架構(gòu)。Mayes 選擇使用它的原因也是出于其輕量化的原因,假如使用 YOLO 或者 Fast-RCNN 這類物體檢測算法的話,在移動端就很難做到實時性。 通過 MobileNet 的輸出獲得檢測到人物像素的邊界框。

//Gothroughpixelsandfigureoutboundingboxofbodypixels. for(letx=0;xmaxX){ maxX=x; } if(y>maxY){ maxY=y; } foundBody=true; } } } 為避免人物沒有被檢測完全的現(xiàn)象,這里使用變量額 scale 對檢測區(qū)域進行適當(dāng)放縮。這個 1.3 的參數(shù)是測試出來的,感興趣的讀者可以調(diào)整試試看。 //Calculatedimensionsofboundingbox. varwidth=maxX-minX; varheight=maxY-minY; //Definescalefactortousetoallowforfalsenegativesaroundthisregion. varscale=1.3; //Definescaleddimensions. varnewWidth=width*scale; varnewHeight=height*scale; //Caculatetheoffsettoplacenewboundingboxsoscaledfromcenterofcurrentboundingbox. varoffsetX=(newWidth-width)/2; varoffsetY=(newHeight-height)/2; varnewXMin=minX-offsetX; varnewYMin=minY-offsetY; 之后對人物 bounding box 之外的區(qū)域進行更新,并且當(dāng)檢測到人物移動時,更新背景區(qū)域。 //Nowloopthroughupdatebackgoundunderstandingwithnewdata //ifnotinsideaboundingbox. for(letx=0;xnewXMin+newWidth)||(ynewYMin+newHeight)){ //Convertxyco-ordstoarrayoffset. letn=y*canvas.width+x; data[n*4]=dataL[n*4]; data[n*4+1]=dataL[n*4+1]; data[n*4+2]=dataL[n*4+2]; data[n*4+3]=255; }elseif(!foundBody){ //Nobodyfoundatall,updateallpixels. letn=y*canvas.width+x; data[n*4]=dataL[n*4]; data[n*4+1]=dataL[n*4+1]; data[n*4+2]=dataL[n*4+2]; data[n*4+3]=255; } } } ctx.putImageData(imageData,0,0); if(DEBUG){ ctx.strokeStyle="#00FF00" ctx.beginPath(); ctx.rect(newXMin,newYMin,newWidth,newHeight); ctx.stroke(); } } 至此為算法的核心部分,用了這個程序,你也可以像滅霸一樣彈一個響指(單擊一下鼠標)讓人憑空消失。 熱門的「視頻隱身術(shù)」 其實,這并非機器之心報道的第一個消除視頻中人像的項目。 2019 年,我們也曾報道過「video-object-removal」項目。在此項目中,只要畫個邊界框,模型就能自動追蹤邊界框內(nèi)的物體,并在視頻中隱藏它。 項目地址:https://github.com/zllrunning/video-object-removal

但從項目效果來看,也會有一些瑕疵,例如去掉了行人后,背景內(nèi)的車道線對不齊等。 與 Mayes 的這個項目類似,video-object-removal 主要借鑒了 SiamMask 與 Deep Video Inpainting,它們都來自 CVPR 2019 的研究。通過 SiamMask 追蹤視頻中的目標,并將 Mask 傳遞給 Deep Video Inpainting,然后模型就能重建圖像,完成最終的修復(fù)了。 對此類技術(shù)感興趣的讀者可自行運行下這兩個項目,做下對比。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 物聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    2909

    文章

    44704

    瀏覽量

    374021
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    329

    瀏覽量

    60537

原文標題:Github 3.4k星,200余行代碼,讓你實時從視頻中隱身

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    TPA3123制作了音頻功放,無法工作怎么解決?

    我按照TPA3123的用戶指南上的原理圖,制作了音頻功放,但是無論左右輸入都接地的時候,或者有信號輸入,在Lout和Rout都有這樣的波形,無法工作。希望得到大家的幫助。
    發(fā)表于 11-04 06:06

    使用LM3886制作了最基礎(chǔ)的反相放大器,出現(xiàn)交越失真如何解決?

    使用LM3886制作了最基礎(chǔ)的反相放大器,增益為20,輸入三角波信號,出現(xiàn)交越失真。信號頻率在幾百Hz到十幾kHz變化,現(xiàn)象相同。請問這是什么原因,如果解決?
    發(fā)表于 09-29 07:00

    用opa2228制作了同向加法器,可輸出出現(xiàn)了震蕩怎么解決?

    請問下,我用opa2228制作了同向加法器,可輸出出現(xiàn)了震蕩(其中正向輸入的兩信號分別是峰峰值為1.36V頻率4kHZ的正弦波,和
    發(fā)表于 09-20 06:58

    制作了0.6HZ低通濾波器,濾波后的噪聲峰峰值達到了20mv,為什么?

    制作了0.6HZ低通濾波器(用來將濾除交流信號分量中的直流分量)。但是濾波后的噪聲峰峰值達到了20mv。
    發(fā)表于 09-19 07:35

    推薦支持js的嵌入式設(shè)備開發(fā)平臺

    控制gpio,pwm,藍牙,nfc,二維碼識別,人臉識別,網(wǎng)絡(luò),mqtt,tcp,看門狗,ui等等,支持多線程 也支持多種設(shè)備。 以下是代碼示例和效果圖示例 import log from
    發(fā)表于 09-04 14:04

    用OPA549T制作了改進型的Howland恒流源,Howland恒流源帶寬可以有多大?

    最近用OPA549T制作了改進型的Howland恒流源,電流峰峰值可達6A。但是恒流帶寬有限(接近2KHz)低頻時(大概在10Hz以內(nèi))電流大小也會衰減。有什么辦法可以提高恒流帶寬嗎?
    發(fā)表于 08-15 08:32

    使用TensorFlow進行神經(jīng)網(wǎng)絡(luò)模型更新

    使用TensorFlow進行神經(jīng)網(wǎng)絡(luò)模型的更新是涉及多個步驟的過程,包括模型定義、訓(xùn)練、評估以及根據(jù)新數(shù)據(jù)或需求進行模型微調(diào)(Fine-tuning)或重新訓(xùn)練。下面我將詳細闡述這個過程,并附上相應(yīng)的
    的頭像 發(fā)表于 07-12 11:51 ?437次閱讀

    tensorflow和pytorch哪個更簡單?

    PyTorch更簡單。選擇TensorFlow還是PyTorch取決于您的具體需求和偏好。如果您需要易于使用、靈活且具有強大社區(qū)支持的框架,PyTorch可能是
    的頭像 發(fā)表于 07-05 09:45 ?890次閱讀

    tensorflow簡單的模型訓(xùn)練

    在本文中,我們將詳細介紹如何使用TensorFlow進行簡單的模型訓(xùn)練。TensorFlow開源的機器學(xué)習(xí)庫,廣泛用于各種機器學(xué)習(xí)任務(wù),包括圖像識別、自然語言處理等。我們將從安裝
    的頭像 發(fā)表于 07-05 09:38 ?705次閱讀

    keras模型轉(zhuǎn)tensorflow session

    在這篇文章中,我們將討論如何將Keras模型轉(zhuǎn)換為TensorFlow session。 Keras和TensorFlow簡介 Keras是高級神經(jīng)網(wǎng)絡(luò)API,它提供了
    的頭像 發(fā)表于 07-05 09:36 ?553次閱讀

    TensorFlow的定義和使用方法

    TensorFlow由谷歌人工智能團隊谷歌大腦(Google Brain)開發(fā)和維護的開源機器學(xué)習(xí)庫。它基于數(shù)據(jù)流編程(dataflow programming)的概念,將復(fù)雜的數(shù)學(xué)運算表示為
    的頭像 發(fā)表于 07-02 14:14 ?799次閱讀

    用STM32CubeIDE為電路板制作了軟ap,將項目導(dǎo)入Keil,代碼在cy_wcm_init時停止了如何解決?

    我用 STM32CubeIDE 為我的電路板制作了軟 ap,但我要將我的項目導(dǎo)入 Keil。 但我的代碼在 cy_wcm_init 時停止了。 如何解決?
    發(fā)表于 07-02 08:19

    使用STM32CubeMX為Keil(uVision)制作了項目,在Keil中卻顯示出許多錯誤的原因?

    我在 stm32CubeIDE 中實現(xiàn)了 WIFI 網(wǎng)橋,因此我想移動我的項目。 然后,我使用 STM32CubeMX 為 Keil(uVision)制作了項目。 但在 Keil 中卻顯示出許多錯誤,而且構(gòu)建時間將近 20 分
    發(fā)表于 05-31 07:06

    制作了usb小pcb,在pc上總是顯示請求usb設(shè)備描述符失敗,為什么?

    我按照cyusb3-kit003電路圖 自己制作了usb小pcb但是在pc上總是顯示請求usb設(shè)備描述符失敗,我測量了所有供電以及配置管腳都是正確的。
    發(fā)表于 05-29 07:46

    通過HDL制作了4位計數(shù)組件VERILOG ,如何設(shè)置像這些標準組件這樣的API?

    我通過 HDL 制作了 4 位計數(shù)組件 VERILOG ,如何設(shè)置像這些標準組件這樣的 API? 例如 counter_writeCounter ()、counter_readCounter () 的命令。
    發(fā)表于 01-25 06:06