0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌發(fā)表論文EfficientNet 重新思考CNN模型縮放

DPVg_AI_era ? 來(lái)源:yxw ? 2019-06-03 14:19 ? 次閱讀

谷歌AI研究部門華人科學(xué)家再發(fā)論文《EfficientNet:重新思考CNN模型縮放》,模型縮放的傳統(tǒng)做法是任意增加CNN的深度和寬度,或使用更大的輸入圖像分辨率進(jìn)行訓(xùn)練,而使用EfficientNet使用一組固定額縮放系數(shù)統(tǒng)一縮放每個(gè)維度,超越了當(dāng)先最先進(jìn)圖像識(shí)別網(wǎng)絡(luò)的準(zhǔn)確率,效率提高了10倍,而且更小。

目前提高CNN精度的方法,主要是通過(guò)任意增加CNN深度或?qū)挾?,或使用更大的輸入圖像分辨率進(jìn)行訓(xùn)練和評(píng)估。

以固定的資源成本開(kāi)發(fā),然后按比例放大,以便在獲得更多資源時(shí)實(shí)現(xiàn)更好的準(zhǔn)確性。例如ResNet可以通過(guò)增加層數(shù)從ResNet-18擴(kuò)展到ResNet-200。

再比如開(kāi)源大規(guī)模神經(jīng)網(wǎng)絡(luò)模型高效訓(xùn)練庫(kù)GPipe,通過(guò)將基線CNN擴(kuò)展四倍來(lái)實(shí)現(xiàn)84.3% ImageNet top-1精度。

這種方法的優(yōu)勢(shì)在于確實(shí)可以提高精度,但劣勢(shì)也很明顯。這個(gè)時(shí)候往往需要進(jìn)行繁瑣的微調(diào)。一點(diǎn)點(diǎn)的摸黑去試、還經(jīng)常的徒勞無(wú)功。這絕對(duì)不是一件能夠讓人身心愉快的事情,對(duì)于谷歌科學(xué)家們也一樣。

這就是為什么,谷歌人工智能研究部門的科學(xué)家們正在研究一種新的“更結(jié)構(gòu)化”的方式,來(lái)“擴(kuò)展”卷積神經(jīng)網(wǎng)絡(luò)。他們給這個(gè)新的網(wǎng)絡(luò)命名為:EfficientNet(效率網(wǎng)絡(luò))。

代碼已開(kāi)源,論文剛剛上線arXiv,并將在6月11日,作為poster亮相ICML 2019。

比現(xiàn)有卷積網(wǎng)絡(luò)小84倍,比GPipe快6.1倍

為了理解擴(kuò)展網(wǎng)絡(luò)的效果,谷歌的科學(xué)家系統(tǒng)地研究了縮放模型不同維度的影響。模型縮放并確定仔細(xì)平衡網(wǎng)絡(luò)深度后,發(fā)現(xiàn)只要對(duì)網(wǎng)絡(luò)的深度、寬度和分辨率進(jìn)行合理地平衡,就能帶來(lái)更好的性能?;谶@一觀察,科學(xué)家提出了一種新的縮放方法,使用簡(jiǎn)單但高效的復(fù)合系數(shù)均勻地縮放深度、寬度和分辨率的所有尺寸。

據(jù)悉,EfficientNet-B7在ImageNet上實(shí)現(xiàn)了最先進(jìn)精度的84.4% Top 1/97.1% Top 5,同時(shí)比最好的現(xiàn)有ConvNet小84倍,推理速度快6.1倍;在CIFAR-100(91.7%),F(xiàn)lower(98.8%)和其他3個(gè)遷移學(xué)習(xí)數(shù)據(jù)集上,也能很好地傳輸和實(shí)現(xiàn)最先進(jìn)的精度。參數(shù)減少一個(gè)數(shù)量級(jí),效率卻提高了10倍(更小,更快)。

與流行的ResNet-50相比,另一款EfficientNet-B4使用了類似的FLOPS,同時(shí)將ResNet-50的最高精度從76.3%提高到82.6%。

這么優(yōu)秀的成績(jī)是如何做到的

這種復(fù)合縮放方法的第一步是執(zhí)行網(wǎng)格搜索,在固定資源約束下找到基線網(wǎng)絡(luò)的不同縮放維度之間的關(guān)系(例如,2倍FLOPS),這樣做的目的是為了找出每個(gè)維度的適當(dāng)縮放系數(shù)。然后應(yīng)用這些系數(shù),將基線網(wǎng)絡(luò)擴(kuò)展到所需的目標(biāo)模型大小或算力預(yù)算。

與傳統(tǒng)的縮放方法相比,這種復(fù)合縮放方法可以持續(xù)提高擴(kuò)展模型的準(zhǔn)確性和效率,和傳統(tǒng)方法對(duì)比結(jié)果:MobileNet(+ 1.4% imagenet精度),ResNet(+ 0.7%)。

新模型縮放的有效性,很大程度上也依賴基線網(wǎng)絡(luò)。

為了進(jìn)一步提高性能,研究團(tuán)隊(duì)還通過(guò)使用AutoML MNAS框架執(zhí)行神經(jīng)架構(gòu)搜索來(lái)開(kāi)發(fā)新的基線網(wǎng)絡(luò),該框架優(yōu)化了準(zhǔn)確性和效率(FLOPS)。

由此產(chǎn)生的架構(gòu)使用移動(dòng)倒置瓶頸卷積(MBConv),類似于MobileNetV2和MnasNet,但由于FLOP預(yù)算增加而略大。然后,通過(guò)擴(kuò)展基線網(wǎng)絡(luò)以獲得一系列模型,被稱為EfficientNets。

不僅局限于ImageNet

EfficientNets在ImageNet上的良好表現(xiàn),讓谷歌的科學(xué)家希望將其應(yīng)用于更廣泛的網(wǎng)絡(luò)中,造福更多的人。

在8個(gè)廣泛使用的遷移學(xué)習(xí)數(shù)據(jù)集上測(cè)試之后,EfficientNet在其中的5個(gè)網(wǎng)絡(luò)實(shí)現(xiàn)了最先進(jìn)的精度。例如,在參數(shù)減少21倍的情況下,實(shí)現(xiàn)了CIFAR-100(91.7%)和Flowers(98.8%)。

看到這樣的結(jié)果,谷歌科學(xué)家預(yù)計(jì)EfficientNet可能成為未來(lái)計(jì)算機(jī)視覺(jué)任務(wù)的新基礎(chǔ),因此將EfficientNet開(kāi)源。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6218

    瀏覽量

    107042
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33377

    瀏覽量

    273860
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    353

    瀏覽量

    22558

原文標(biāo)題:谷歌出品EfficientNet:比現(xiàn)有卷積網(wǎng)絡(luò)小84倍,比GPipe快6.1倍

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 0人收藏

    評(píng)論

    相關(guān)推薦

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶開(kāi)放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項(xiàng)。 ? 在核心亮點(diǎn)層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設(shè)計(jì)的 TPU 芯片,能夠有力支持大規(guī)模思考
    的頭像 發(fā)表于 04-12 00:57 ?1504次閱讀

    無(wú)法轉(zhuǎn)換TF OD API掩碼RPGA模型怎么辦?

    無(wú)法轉(zhuǎn)換重新訓(xùn)練的 TF OD API 掩碼 RPGA 模型,該模型使用以下命令在 GPU 上工作: mo > --saved_model_dir
    發(fā)表于 03-06 06:44

    ai大模型訓(xùn)練方法有哪些?

    AI大模型訓(xùn)練方法是一個(gè)復(fù)雜且不斷發(fā)展的領(lǐng)域。以下是ai大模型訓(xùn)練方法: 數(shù)據(jù)預(yù)處理和增強(qiáng) 數(shù)據(jù)清洗:去除噪聲和不完整的數(shù)據(jù)。 數(shù)據(jù)標(biāo)準(zhǔn)化:將數(shù)據(jù)縮放到統(tǒng)一的范圍。 數(shù)據(jù)增強(qiáng):通過(guò)旋轉(zhuǎn)、縮放
    的頭像 發(fā)表于 07-16 10:11 ?2668次閱讀

    cnn常用的幾個(gè)模型有哪些

    CNN(卷積神經(jīng)網(wǎng)絡(luò))是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域。以下是一些常用的CNN模型: LeNet-5:LeNet-5是最早的卷積神經(jīng)網(wǎng)絡(luò)之一,由Yann Le
    的頭像 發(fā)表于 07-11 14:58 ?1494次閱讀

    圖像分割與語(yǔ)義分割中的CNN模型綜述

    圖像分割與語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語(yǔ)義含義的區(qū)域或?qū)ο蟆>矸e神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像分割與語(yǔ)義分割中發(fā)揮著至關(guān)重要的作用。本文將從CNN
    的頭像 發(fā)表于 07-09 11:51 ?1517次閱讀

    CNN與RNN的關(guān)系?

    在深度學(xué)習(xí)的廣闊領(lǐng)域中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是兩種極為重要且各具特色的神經(jīng)網(wǎng)絡(luò)模型。它們各自在圖像處理、自然語(yǔ)言處理等領(lǐng)域展現(xiàn)出卓越的性能。本文將從概念、原理、應(yīng)用場(chǎng)景及代碼示例等方面詳細(xì)探討CNN與R
    的頭像 發(fā)表于 07-08 16:56 ?1269次閱讀

    CNN的定義和優(yōu)勢(shì)

    CNN模型還是算法的問(wèn)題,實(shí)際上它兼具了兩者的特性,但更側(cè)重于作為一種模型存在。本文將從CNN的定義、結(jié)構(gòu)、原理、應(yīng)用等多個(gè)方面進(jìn)行深入探討,旨在全面解析
    的頭像 發(fā)表于 07-05 17:37 ?5330次閱讀

    如何在TensorFlow中構(gòu)建并訓(xùn)練CNN模型

    在TensorFlow中構(gòu)建并訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN模型是一個(gè)涉及多個(gè)步驟的過(guò)程,包括數(shù)據(jù)預(yù)處理、模型設(shè)計(jì)、編譯、訓(xùn)練以及評(píng)估。下面,我將詳細(xì)闡述這些步驟,并附上一個(gè)完整的代碼示例。
    的頭像 發(fā)表于 07-04 11:47 ?1392次閱讀

    NLP模型中RNN與CNN的選擇

    在自然語(yǔ)言處理(NLP)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)與卷積神經(jīng)網(wǎng)絡(luò)(CNN)是兩種極為重要且廣泛應(yīng)用的網(wǎng)絡(luò)結(jié)構(gòu)。它們各自具有獨(dú)特的優(yōu)勢(shì),適用于處理不同類型的NLP任務(wù)。本文旨在深入探討RNN與CNN
    的頭像 發(fā)表于 07-03 15:59 ?850次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、語(yǔ)義分割等領(lǐng)域。本文將詳細(xì)介紹CNN在分類任務(wù)中的應(yīng)用,包括基本結(jié)構(gòu)、關(guān)鍵技術(shù)、常見(jiàn)網(wǎng)絡(luò)架構(gòu)以及實(shí)際應(yīng)用案例。 引言 1.1
    的頭像 發(fā)表于 07-03 09:28 ?1038次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)三大特點(diǎn)是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語(yǔ)言處理等領(lǐng)域。CNN具有以下三大特點(diǎn): 局部連接
    的頭像 發(fā)表于 07-03 09:26 ?2160次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過(guò)程及應(yīng)用領(lǐng)域

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語(yǔ)言處理等領(lǐng)域。CNN模型的核心是卷積層
    的頭像 發(fā)表于 07-02 15:26 ?4993次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn模型有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語(yǔ)言處理等領(lǐng)域。 CNN的基本概念 1.1 卷積層
    的頭像 發(fā)表于 07-02 15:24 ?1031次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    深度神經(jīng)網(wǎng)絡(luò)模型CNN(Convolutional Neural Network)是一種廣泛應(yīng)用于圖像識(shí)別、視頻分析和自然語(yǔ)言處理等領(lǐng)域的深度學(xué)習(xí)模型。 引言 深度學(xué)習(xí)是近年來(lái)人工智能領(lǐng)域的研究熱點(diǎn)
    的頭像 發(fā)表于 07-02 10:11 ?1.1w次閱讀

    STM CUBE AI錯(cuò)誤導(dǎo)入onnx模型報(bào)錯(cuò)的原因?

    使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.ai v8.0.0-19389) INTER
    發(fā)表于 05-27 07:15

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品