0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣計(jì)算中深度神經(jīng)網(wǎng)絡(luò)剪枝壓縮的研究

倩倩 ? 來(lái)源:我是天邊飄過一朵云 ? 2020-03-27 15:50 ? 次閱讀

邊緣計(jì)算將計(jì)算、網(wǎng)絡(luò)、存儲(chǔ)等能力擴(kuò)展到物聯(lián)網(wǎng)設(shè)備附近的網(wǎng)絡(luò)邊緣側(cè),而以深度學(xué)習(xí)為代表的人工智能技術(shù)讓每個(gè)邊緣計(jì)算的節(jié)點(diǎn)都具有計(jì)算和決策的能力,這使得某些復(fù)雜的智能應(yīng)用可以在本地邊緣端進(jìn)行處理,滿足了敏捷連接、實(shí)時(shí)業(yè)務(wù)、數(shù)據(jù)優(yōu)化、應(yīng)用智能、安全與隱私保護(hù)等方面的需求。智能邊緣計(jì)算利用物聯(lián)網(wǎng)的邊緣設(shè)備進(jìn)行數(shù)據(jù)采集和智能分析計(jì)算,實(shí)現(xiàn)智能在云和邊緣之間流動(dòng),對(duì)人工智能算法、終端、芯片都提出了新的需求,正成為越來(lái)越多人工智能企業(yè)關(guān)注的重點(diǎn)方向。然而,由于深度學(xué)習(xí)模型推理需要消耗大量的計(jì)算資源,當(dāng)前的大多數(shù)邊緣設(shè)備由于資源受限無(wú)法以低延遲、低功耗、高精確率的方式支持深度學(xué)習(xí)應(yīng)用。

深度神經(jīng)網(wǎng)絡(luò)與其他很多機(jī)器學(xué)習(xí)模型一樣,可分為訓(xùn)練和推理兩個(gè)階段。訓(xùn)練階段根據(jù)數(shù)據(jù)學(xué)習(xí)模型中的參數(shù)(對(duì)神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)主要是網(wǎng)絡(luò)中的權(quán)重);推理階段將新數(shù)據(jù)輸入模型,經(jīng)過計(jì)算得出結(jié)果。過參數(shù)化是指在訓(xùn)練階段,網(wǎng)絡(luò)需要大量的參數(shù)來(lái)捕捉數(shù)據(jù)中的微小信息,而一旦訓(xùn)練完成到了推理階段,就不需要這么多的參數(shù)?;谶@樣的假設(shè),就可以在部署前對(duì)模型進(jìn)行簡(jiǎn)化。模型壓縮中的剪枝(pruning)和量化兩類方法正是基于這樣的前提。模型簡(jiǎn)化的優(yōu)點(diǎn)包括但不限于:(1)計(jì)算量的減小,從而使計(jì)算時(shí)間更少,功耗更??;(2)存儲(chǔ)和讀寫訪問量變小,可以放到更邊緣的設(shè)備上運(yùn)行,本來(lái)需要既慢又耗能的DRAM參與,現(xiàn)在有可能放在SRAM就可以。其核心問題是如何有效地裁剪模型并使得精度的損失最小化。

對(duì)于神經(jīng)網(wǎng)絡(luò)修剪的研究始于20世紀(jì)80年代末、90年代初。漢森(Hanson)在1988年提出基于幅度的修剪方法,即對(duì)網(wǎng)絡(luò)中每個(gè)隱含單元施加與其絕對(duì)值相關(guān)的權(quán)重衰減來(lái)使隱含單元數(shù)量最小化。樂昆(LeCun)和哈斯比(Hassibi)分別在1990年和1993年提出最優(yōu)腦損傷(Optimal Brain Damage,OBD)和最優(yōu)腦手術(shù)(Optimal Brain Surgeon,OBS)方法,它們基于損失函數(shù)相對(duì)于權(quán)重的二階導(dǎo)數(shù)(對(duì)權(quán)重向量來(lái)說(shuō)即Hessian矩陣)來(lái)衡量網(wǎng)絡(luò)中權(quán)重的重要程度,然后對(duì)其進(jìn)行裁剪。由于受到當(dāng)時(shí)計(jì)算資源的限制,研究?jī)H限于淺層神經(jīng)網(wǎng)絡(luò),但其對(duì)問題的定義和解決問題的思路對(duì)之后的工作產(chǎn)生了深遠(yuǎn)的影響。從2012年起,神經(jīng)網(wǎng)絡(luò)的變化趨勢(shì)是不斷加深網(wǎng)絡(luò)以提高精度。在2015-2016年期間,Han等人發(fā)表了一系列對(duì)深度神經(jīng)網(wǎng)絡(luò)進(jìn)行模型壓縮的工作,其中Deep Compression對(duì)當(dāng)時(shí)經(jīng)典網(wǎng)絡(luò)AlexNet和VGG進(jìn)行了壓縮。結(jié)合修剪、量化和哈夫曼編碼等多種方法,將網(wǎng)絡(luò)尺寸壓縮至幾十分之一,性能獲得成倍的提升。其中對(duì)于修剪帶來(lái)的精度損失,使用了迭代修剪方法進(jìn)行補(bǔ)償,使精度幾乎沒有損失。之后這幾年,模型壓縮領(lǐng)域變得越來(lái)越豐富,越來(lái)越多的相關(guān)工作衍生而出。

從網(wǎng)絡(luò)修剪的粒度來(lái)說(shuō),可以分為結(jié)構(gòu)化剪枝(structured pruning)和非結(jié)構(gòu)化剪枝(unstructured pruning)兩類。早期的一些方法是基于非結(jié)構(gòu)化的,它修剪的粒度為單個(gè)神經(jīng)元。如果對(duì)卷積核進(jìn)行非結(jié)構(gòu)化剪枝,則得到的卷積核是稀疏的,即中間有很多元素為0的矩陣。除非下層的硬件和計(jì)算庫(kù)對(duì)其有比較好的支持,否則修剪后的網(wǎng)絡(luò)很難獲得實(shí)質(zhì)的性能提升。稀疏矩陣無(wú)法利用現(xiàn)有成熟的基礎(chǔ)線性代數(shù)子程序(Basic Linear Algebra Subprograms,BLAS)庫(kù)來(lái)獲得額外性能收益。因此,很多研究是集中在結(jié)構(gòu)化剪枝上,通常細(xì)分為通道剪枝、卷積核剪枝和網(wǎng)絡(luò)結(jié)構(gòu)修剪。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)在FPGA上的應(yīng)用:深度壓縮方法

    對(duì)AlexNet和VGG-16進(jìn)行了實(shí)驗(yàn),獲得了35倍和49倍的壓縮量,而且精度幾乎沒有損失。 1. 原理 深度壓縮之所以獲得成功主要是結(jié)合了三種壓縮方法:
    的頭像 發(fā)表于 11-21 11:00 ?3226次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>在FPGA上的應(yīng)用:<b class='flag-5'>深度</b><b class='flag-5'>壓縮</b>方法

    從AlexNet到MobileNet,帶你入門深度神經(jīng)網(wǎng)絡(luò)

    思維導(dǎo)圖如下:發(fā)展歷程DNN-定義和概念在卷積神經(jīng)網(wǎng)絡(luò),卷積操作和池化操作有機(jī)的堆疊在一起,一起組成了CNN的主干。同樣是受到獼猴視網(wǎng)膜與視覺皮層之間多層網(wǎng)絡(luò)的啟發(fā),深度
    發(fā)表于 05-08 15:57

    如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    ,并能在腦海中重現(xiàn)這些圖像信息,這不僅與人腦的海量信息存儲(chǔ)能力有關(guān),還與人腦的信息處理能力,包括數(shù)據(jù)壓縮能力有關(guān)。在各種神經(jīng)網(wǎng)絡(luò),多層前饋神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)的信息處理能力,由于其采用B
    發(fā)表于 08-08 06:11

    深度神經(jīng)網(wǎng)絡(luò)是什么

    多層感知機(jī) 深度神經(jīng)網(wǎng)絡(luò)in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    基于深度神經(jīng)網(wǎng)絡(luò)的激光雷達(dá)物體識(shí)別系統(tǒng)

    的激光雷達(dá)物體識(shí)別技術(shù)一直難以在嵌入式平臺(tái)上實(shí)時(shí)運(yùn)行。經(jīng)緯恒潤(rùn)經(jīng)過潛心研發(fā),攻克了深度神經(jīng)網(wǎng)絡(luò)在嵌入式平臺(tái)部署所面臨的算子定制與加速、量化策略、模型壓縮等難題,率先實(shí)現(xiàn)了高性能激光檢測(cè)神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 12-21 07:59

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    network,DBN)[24], 從此拉開了深度學(xué)習(xí)大幕。隨著深度學(xué)習(xí)理論的研究和發(fā)展,研究人員提 出了一系列卷積神經(jīng)網(wǎng)絡(luò)模型。為了比較
    發(fā)表于 08-02 10:39

    深度神經(jīng)網(wǎng)絡(luò)壓縮和正則化剖析

    利用深度壓縮和DSD訓(xùn)練來(lái)提高預(yù)測(cè)精度。 深度神經(jīng)網(wǎng)絡(luò)已經(jīng)成為解決計(jì)算機(jī)視覺、語(yǔ)音識(shí)別和自然語(yǔ)言處理等機(jī)器學(xué)習(xí)任務(wù)的最先進(jìn)的技術(shù)。盡管如此,
    發(fā)表于 11-16 13:11 ?1828次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>壓縮</b>和正則化剖析

    面向“邊緣”應(yīng)用的卷積神經(jīng)網(wǎng)絡(luò)如何進(jìn)行量化與壓縮詳細(xì)方法

    針對(duì)卷積神經(jīng)網(wǎng)絡(luò)( CNN)推理計(jì)算所需內(nèi)存空間和資源過大,限制了其在嵌入式等“邊緣”設(shè)備上部署的問題,提出結(jié)合網(wǎng)絡(luò)權(quán)重裁剪及面向嵌入式硬件平臺(tái)數(shù)據(jù)類型的數(shù)據(jù)量化的
    發(fā)表于 12-26 17:01 ?4次下載
    面向“<b class='flag-5'>邊緣</b>”應(yīng)用的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>如何進(jìn)行量化與<b class='flag-5'>壓縮</b>詳細(xì)方法

    基于深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)化剪枝算法

      現(xiàn)有結(jié)構(gòu)化剪枝算法通常運(yùn)用深度神經(jīng)網(wǎng)絡(luò)(DNN)的一階或者零階信息對(duì)通道進(jìn)行剪枝,為利用二階信息加快DNN網(wǎng)絡(luò)模型收斂速度,借鑒HAWQ
    發(fā)表于 03-10 16:41 ?2次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的結(jié)構(gòu)化<b class='flag-5'>剪枝</b>算法

    神經(jīng)網(wǎng)絡(luò)圖像壓縮算法的FPGA實(shí)現(xiàn)技術(shù)研究論文免費(fèi)下載

    神經(jīng)網(wǎng)絡(luò)圖像壓縮是圖像壓縮神經(jīng)網(wǎng)絡(luò)領(lǐng)域的主要研究方向之一,基于多層前饋神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 03-22 16:06 ?11次下載
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>圖像<b class='flag-5'>壓縮</b>算法的FPGA實(shí)現(xiàn)技術(shù)<b class='flag-5'>研究</b>論文免費(fèi)下載

    深度神經(jīng)網(wǎng)絡(luò)模型的壓縮和優(yōu)化綜述

    近年來(lái),隨著深度學(xué)習(xí)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)受到了越來(lái)越多的關(guān)注,在許多應(yīng)用領(lǐng)域取得了顯著效果。通常,在較高的計(jì)算量下,深度
    發(fā)表于 04-12 10:26 ?20次下載
    <b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>模型的<b class='flag-5'>壓縮</b>和優(yōu)化綜述

    基于剪枝與量化的卷積神經(jīng)網(wǎng)絡(luò)壓縮算法

    隨著深度學(xué)習(xí)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)作為其重要算法被廣泛應(yīng)用到計(jì)算機(jī)視覺、自然語(yǔ)言處理及語(yǔ)音處理等各個(gè)領(lǐng)域,并取得了比傳統(tǒng)算法更為優(yōu)秀的成績(jī)。但是,卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,參數(shù)量和
    發(fā)表于 05-17 15:44 ?6次下載

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn) 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動(dòng)調(diào)整神經(jīng)元之間的權(quán)重,從而實(shí)現(xiàn)對(duì)大規(guī)模數(shù)據(jù)進(jìn)行預(yù)
    發(fā)表于 08-21 17:07 ?4132次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)壓縮方法

    ,CNN模型的參數(shù)量和計(jì)算量也隨之劇增,這對(duì)硬件資源提出了嚴(yán)峻挑戰(zhàn)。因此,卷積神經(jīng)網(wǎng)絡(luò)壓縮方法成為了研究熱點(diǎn)。本文將從多個(gè)角度詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-11 11:46 ?356次閱讀

    FPGA在深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    、低功耗等特點(diǎn),逐漸成為深度神經(jīng)網(wǎng)絡(luò)邊緣計(jì)算和設(shè)備端推理的重要硬件平臺(tái)。本文將詳細(xì)探討FPGA在深度
    的頭像 發(fā)表于 07-24 10:42 ?676次閱讀