當(dāng)?shù)貢r(shí)間4月3日,谷歌推出了一款新的移動(dòng)框架MobileNetV2,基于上一代MobileNet,這款模型能顯著提高多種計(jì)算機(jī)視覺(jué)任務(wù)。
去年我們推出了MobileNetV1,這是一款為移動(dòng)設(shè)備而設(shè)計(jì)的通用計(jì)算機(jī)視覺(jué)神經(jīng)網(wǎng)絡(luò)模型,它有分類(lèi)、檢測(cè)等功能。這種可以在個(gè)人移動(dòng)設(shè)備上運(yùn)行深度網(wǎng)絡(luò)的能力極大地提升了用戶體驗(yàn),不僅能隨時(shí)隨地訪問(wèn),還非常安全、私密、省電。隨著新應(yīng)用的出現(xiàn),用戶可以與現(xiàn)實(shí)世界進(jìn)行實(shí)時(shí)交互,同樣對(duì)更高效的深度網(wǎng)絡(luò)也有更多的需求。
今天,我們很高興宣布MobileNetV2已經(jīng)可以支持下一代移動(dòng)視覺(jué)應(yīng)用。MobileNetV2在MobileNetV1上做出了重大改進(jìn),并推動(dòng)了目前移動(dòng)設(shè)備的視覺(jué)識(shí)別技術(shù)的發(fā)展,包括圖像分類(lèi)、檢測(cè)和語(yǔ)義分割。MobileNetV2作為TensorFlow-Slim圖像分類(lèi)庫(kù)的一部分發(fā)布,或者您可以在Colaboratory中探索MobileNetV2。另外,您還可以利用Jupyter下載筆記本并進(jìn)行使用。MobileNetV2也可以作為TF-Hub上的模塊使用,預(yù)訓(xùn)練的檢查點(diǎn)可以在GitHub上找到。
MobileNetV2的創(chuàng)建基于MobileNetV1的思想,使用深度可分離卷積作為高效的構(gòu)建模塊。然而,V2在架構(gòu)中引入了兩種新特征:
圖層間的線性瓶頸層
瓶頸層之間的快捷連接
基本結(jié)構(gòu)如圖所示:
可以看到,瓶頸對(duì)模型的中間輸入和輸出進(jìn)行編碼,而內(nèi)層包括了模型能將低級(jí)概念(如像素)轉(zhuǎn)換為高級(jí)描述符(如圖像類(lèi)別)的能力。最后,剩余的連接和傳統(tǒng)一樣,快速連接可實(shí)現(xiàn)更快的訓(xùn)練速度和更高的準(zhǔn)確性。具體細(xì)節(jié)可以查看論文:MobileNetV2:Inverted Residuals and Linear Bottlenecks:https://arxiv.org/abs/1801.04381。
它與第一代MobileNets相比如何?
總體而言,在整個(gè)延遲頻譜中,MobileNetV2模型在相同精度下的速度更快。特別的是,新模型所用的操作次數(shù)減少了2次,參數(shù)減少了30%,在谷歌pixel手機(jī)上的速度比V1快了30%~40%,同時(shí)達(dá)到了更高的準(zhǔn)確性。
MobileNetV2在目標(biāo)物體檢測(cè)和分割時(shí)是一個(gè)非常高效的特征提取器。例如,當(dāng)與新發(fā)布的SSDLite合作進(jìn)行物體檢測(cè)時(shí),新模型在做到與V1同樣準(zhǔn)確的情況下,速度快了35%。我們已經(jīng)在TensorFlow目標(biāo)物體檢測(cè)API中開(kāi)源了此模型。
為支持移動(dòng)設(shè)備的語(yǔ)義分割,我們將MobileNetV2當(dāng)做特征提取器安裝在簡(jiǎn)化版的DeepLabv3上。在語(yǔ)義分割的基準(zhǔn)PASCAL VOC 2012中,我們的結(jié)果與將V1作為特征提取器實(shí)現(xiàn)了相似的性能,但是參數(shù)少了5.3倍,在乘加運(yùn)算上操作次數(shù)減少了5.2倍。
由此可見(jiàn),MobileNetV2作為許多視覺(jué)識(shí)別任務(wù)的基礎(chǔ),是移動(dòng)設(shè)備上高效的模型。我們希望與學(xué)術(shù)界和開(kāi)源社區(qū)共享,以此幫助更多人的研究和應(yīng)用發(fā)展。
-
谷歌
+關(guān)注
關(guān)注
27文章
6169瀏覽量
105439 -
計(jì)算機(jī)視覺(jué)
+關(guān)注
關(guān)注
8文章
1698瀏覽量
46005
原文標(biāo)題:谷歌推出MobileNetV2,為下一代移動(dòng)設(shè)備CV網(wǎng)絡(luò)而生
文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論