0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度神經(jīng)網(wǎng)絡(luò)加速和壓縮方面所取得的進(jìn)展報(bào)告

5b9O_deeplearni ? 來(lái)源:未知 ? 作者:李倩 ? 2018-05-21 16:26 ? 次閱讀

鄭板橋在《贈(zèng)君謀父子》一詩(shī)中曾寫道,

“刪繁就簡(jiǎn)三秋樹(shù);領(lǐng)異標(biāo)新二月花?!?/p>

這句詩(shī)講的是,在畫作最易流于枝蔓的蘭竹時(shí),要去掉其繁雜使之趨于簡(jiǎn)明如“三秋之樹(shù)”;而針對(duì)不同的意境要有發(fā)散的引申,從而使每幅作品都如“二月之花”般新穎。

其實(shí)在人工智能領(lǐng)域,深度神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì),便如同繪制枝蔓繁復(fù)的蘭竹,需在底層對(duì)其刪繁就簡(jiǎn);而將其拓展至不同場(chǎng)景的應(yīng)用,則如同面向不同意境的引申,需要?jiǎng)?chuàng)新算法的支撐。

1946年,世界上第一臺(tái)通用計(jì)算機(jī)“恩尼亞克”誕生,經(jīng)過(guò)七十年余的發(fā)展,計(jì)算機(jī)從最初的龐然大物發(fā)展到今天的可作“掌上舞”,在體積逐步縮小的同時(shí)算力也有了很大提升。然而隨著深度學(xué)習(xí)的崛起,在計(jì)算設(shè)備上可集成算法的能力邊界也在不斷拓展,我們?nèi)匀幻媾R著巨大計(jì)算量和資源消耗的壓力。

深度神經(jīng)網(wǎng)絡(luò),作為目前人工智能的基石之一,其復(fù)雜性及可移植性將直接影響人工智能在生活中的應(yīng)用。因此,在學(xué)術(shù)界誕生了深度網(wǎng)絡(luò)加速與壓縮領(lǐng)域的研究。

今天,來(lái)自中國(guó)科學(xué)院自動(dòng)化研究所的程健研究員,將向大家介紹過(guò)去一年中,深度神經(jīng)網(wǎng)絡(luò)加速和壓縮方面所取得的進(jìn)展。

首先我們來(lái)了解一下常用卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算復(fù)雜度情況。

從上表可以看出近年來(lái)網(wǎng)絡(luò)層數(shù)越來(lái)越多,計(jì)算復(fù)雜度越來(lái)越高。而過(guò)高的計(jì)算復(fù)雜度通常要求我們使用GPU或者高性能的CPU對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行運(yùn)算。實(shí)際上在深度學(xué)習(xí)應(yīng)用過(guò)程中,我們還面臨很多諸如移動(dòng)設(shè)備、嵌入式設(shè)備這樣存在計(jì)算、體積、功耗等方面受限的設(shè)備,它們也需要應(yīng)用深度學(xué)習(xí)技術(shù)。由于這些設(shè)備存在的約束,導(dǎo)致現(xiàn)有的高性能深度神經(jīng)網(wǎng)絡(luò)無(wú)法在上面進(jìn)行有效的計(jì)算和應(yīng)用。

這種情況給我們提出了新的挑戰(zhàn):我們?nèi)绾卧诒3脂F(xiàn)有神經(jīng)網(wǎng)絡(luò)性能基本不變的情況下,通過(guò)將網(wǎng)絡(luò)的計(jì)算量大幅減小,以及對(duì)網(wǎng)絡(luò)模型存儲(chǔ)做大幅的削減,使得網(wǎng)絡(luò)模型能在資源受限的設(shè)備上高效運(yùn)行。這正是我們做深度神經(jīng)網(wǎng)絡(luò)加速、壓縮的基本動(dòng)機(jī)。

從加速和壓縮本身來(lái)說(shuō),兩者不是同一件事,但通常情況下我們往往會(huì)同時(shí)做加速和壓縮,兩者都會(huì)給網(wǎng)絡(luò)的計(jì)算帶來(lái)收益,所以我們今天把它們放在一起來(lái)講。

網(wǎng)絡(luò)加速和壓縮技術(shù)根據(jù)采用的方法不同大概可以分為L(zhǎng)ow-Rank、Pruning、Quantization、Knowledge Distillation等。目前存在很多體積比較小,性能還不錯(cuò)的緊致網(wǎng)絡(luò),在其架構(gòu)設(shè)計(jì)過(guò)程中也含有很多網(wǎng)絡(luò)加速壓縮的基本思想,所以我們今天也把Compact Network Design也作為網(wǎng)絡(luò)加速和壓縮方法的一種來(lái)介紹。

我們對(duì)過(guò)去一年和2018年目前發(fā)表在國(guó)際頂會(huì)上的有關(guān)網(wǎng)絡(luò)加速和壓縮的論文做了統(tǒng)計(jì)。由上圖可以看出在CVPR2017有10篇關(guān)于網(wǎng)絡(luò)加速和壓縮的文章,到CVPR2018年增加到13篇文章,ICLR2017有12篇,ICLR2018增加到14篇,這是兩個(gè)與深度學(xué)習(xí)應(yīng)用相關(guān)的主要會(huì)議。但奇怪的一點(diǎn)是我們看到也有很多文章在NIPS、ICML等相對(duì)傳統(tǒng)、比較注重理論的會(huì)議上發(fā)表,其中NIPS2017有10篇,ICMI2017有4篇??梢哉f(shuō)在過(guò)去一年多的時(shí)間里,深度神經(jīng)網(wǎng)絡(luò)加速和壓縮不僅僅在應(yīng)用方面有所突破,還在理論方面有所進(jìn)展。

根據(jù)我們剛才對(duì)網(wǎng)絡(luò)加速和壓縮方法的分類來(lái)看,Low-Rank只有兩篇,Pruning、Quantization都有三十多篇,這兩個(gè)是研究的絕對(duì)熱點(diǎn)問(wèn)題。Knowledge Distillation有4篇,Compact CNN Design有3篇。下面分別從這幾個(gè)方面進(jìn)行簡(jiǎn)單介紹。

深度網(wǎng)絡(luò)加速和壓縮的第一種方法是Low-Rank低秩分解。由于卷積神經(jīng)網(wǎng)絡(luò)中的主要計(jì)算量在于卷積計(jì)算,而卷積計(jì)算本質(zhì)上是矩陣分析的問(wèn)題,通過(guò)在大學(xué)對(duì)矩陣分析、高等數(shù)學(xué)的學(xué)習(xí)我們知道通過(guò)SVD奇異值分解等矩陣分析方法可以有效減少矩陣運(yùn)算的計(jì)算量。對(duì)于二維矩陣運(yùn)算來(lái)說(shuō)SVD是非常好的簡(jiǎn)化方法,所以在早期的時(shí)候,微軟研究院就做過(guò)相關(guān)的工作來(lái)對(duì)網(wǎng)絡(luò)實(shí)現(xiàn)加速。后面對(duì)于高維矩陣的運(yùn)算往往會(huì)涉及到Tensor分解方法來(lái)做加速和壓縮,主要是CP分解、Tucker分解、Tensor Train分解和Block Term分解這些在2015年和2016年所做的工作。

應(yīng)該說(shuō)矩陣分解方法經(jīng)過(guò)過(guò)去的發(fā)展已經(jīng)非常成熟了,所以在2017、2018年的工作就只有Tensor Ring和Block Term分解在RNN的應(yīng)用兩篇相關(guān)文章了。那么為什么Low-Rank不再流行了呢?除了剛才提及的分解方法顯而易見(jiàn)、比較容易實(shí)現(xiàn)之外,另外一個(gè)比較重要的原因是現(xiàn)在越來(lái)越多網(wǎng)絡(luò)中采用1×1的卷積,而這種小的卷積使用矩陣分解的方法很難實(shí)現(xiàn)網(wǎng)絡(luò)加速和壓縮。

深度網(wǎng)絡(luò)加速和壓縮的第二種方法是Pruning,簡(jiǎn)單來(lái)說(shuō)就是把神經(jīng)網(wǎng)絡(luò)中的連接剪掉,剪掉以后整個(gè)網(wǎng)絡(luò)復(fù)雜度特別是網(wǎng)絡(luò)模型大小要減小很多。最早在ICLR2016上斯坦福大學(xué)提出了一種稱為Deep Compression的隨機(jī)剪枝方法。由于隨機(jī)剪枝方法對(duì)硬件非常不友好,往往在硬件實(shí)現(xiàn)的過(guò)程中不一定能夠很好地對(duì)網(wǎng)絡(luò)起到加速和壓縮的效果。后來(lái)大家就想到使用成塊出現(xiàn)的結(jié)構(gòu)化Pruning,F(xiàn)ilter Pruning,梯度Pruning等方法。

對(duì)于結(jié)構(gòu)化Pruning,在ICML2017中有一篇對(duì)于權(quán)重進(jìn)行分析剪枝的文章。具體方法是:首先使用Group Sparsity組稀疏的方法對(duì)分組特征添加稀疏正則來(lái)修剪掉權(quán)重矩陣的一些列,然后通過(guò)Exclusive Sparsity增強(qiáng)不同權(quán)重之間特征的競(jìng)爭(zhēng)力來(lái)學(xué)習(xí)更有效的filters,兩者共同作用取得了很好的Pruning結(jié)果。

從另一方面考慮,我們能否對(duì)feature map和activation也做一些pruning的工作呢?在ICCV2017的工作中有人通過(guò)給每個(gè)通道channel添加一個(gè)尺度因子scaling factor,然后對(duì)這些尺度因子scaling factor添加sparsity regularization,最后根據(jù)尺度因子大小對(duì)相應(yīng)的通道channels進(jìn)行修剪,將一些尺度因子比較小的通道剪掉,實(shí)現(xiàn)對(duì)整個(gè)網(wǎng)絡(luò)的瘦身效果。

剛才所講的都是在網(wǎng)絡(luò)前向傳播過(guò)程中所做的Pruning,那么我們能否在網(wǎng)絡(luò)訓(xùn)練的過(guò)程中也加入Pruning來(lái)加快網(wǎng)絡(luò)訓(xùn)練的過(guò)程呢?ICML2017有一篇文章對(duì)網(wǎng)絡(luò)訓(xùn)練過(guò)程中的梯度信息做了分析,通過(guò)去掉幅值比較小的梯度來(lái)簡(jiǎn)化網(wǎng)絡(luò)的反向傳播過(guò)程,從而加快網(wǎng)絡(luò)的訓(xùn)練過(guò)程。從結(jié)果來(lái)看,這種方法可以通過(guò)僅僅更新1%-4%的權(quán)重來(lái)實(shí)現(xiàn)和原有網(wǎng)絡(luò)相當(dāng)?shù)男Ч?/p>

除了Pruning,還有一種研究較多的方法是Quantization量化。量化可以分為L(zhǎng)ow-Bit Quantization(低比特量化)、Quantization for General Training Acceleration(總體訓(xùn)練加速量化)和Gradient Quantization for Distributed Training(分布式訓(xùn)練梯度量化)。

由于在量化、特別是低比特量化實(shí)現(xiàn)過(guò)程中,由于量化函數(shù)的不連續(xù)性,在計(jì)算梯度的時(shí)候會(huì)產(chǎn)生一定的困難。對(duì)此,阿里巴巴冷聰?shù)热税训捅忍亓炕D(zhuǎn)化成ADMM可優(yōu)化的目標(biāo)函數(shù),從而由ADMM來(lái)優(yōu)化。

我們實(shí)驗(yàn)室從另一個(gè)角度思考這個(gè)問(wèn)題,使用哈希把二值權(quán)重量化,再通過(guò)哈希求解。

前面兩篇文章都是對(duì)權(quán)重進(jìn)行量化,那么feature map能否也可以進(jìn)行量化呢?以前有人考慮過(guò)這個(gè)問(wèn)題,將權(quán)重和feature map一起進(jìn)行量化,但在實(shí)際過(guò)程中非常難以收斂。我們實(shí)驗(yàn)室在CVPR2018上提出一個(gè)方法,受到兩步哈希法的啟發(fā),將量化分為兩步,第一步先對(duì)feature map進(jìn)行量化,第二步再對(duì)權(quán)重量化,從而能夠?qū)蓚€(gè)同時(shí)進(jìn)行很好的量化。

剛才的量化都是在網(wǎng)絡(luò)inference過(guò)程中,其實(shí)量化也可以在訓(xùn)練過(guò)程中使用,這是英特爾在NIPS2017提出的Flexpoint方法。我們知道在32位浮點(diǎn)和16位浮點(diǎn)存儲(chǔ)的時(shí)候,第一位是符號(hào)位,中間是指數(shù)位,后面是尾數(shù)。他們對(duì)此提出了把前面的指數(shù)項(xiàng)共享的方法,這樣可以把浮點(diǎn)運(yùn)算轉(zhuǎn)化為尾數(shù)的整數(shù)定點(diǎn)運(yùn)算,從而加速網(wǎng)絡(luò)訓(xùn)練。

在很多深度學(xué)習(xí)訓(xùn)練過(guò)程中,為了讓訓(xùn)練更快往往會(huì)用到分布式計(jì)算。在分布式計(jì)算過(guò)程中有一個(gè)很大問(wèn)題,每一個(gè)分布式服務(wù)器都和中心服務(wù)器節(jié)點(diǎn)有大量的梯度信息傳輸過(guò)程,從而造成帶寬限制。這篇文章采取把要傳輸?shù)奶荻刃畔⒘炕癁槿档姆椒▉?lái)有效加速分布式計(jì)算。

第四種方法是Knowledge Distillation。這方面早期有兩個(gè)工作,Knowledge Distillation最早由Hinton在2015年提出,隨后Romero提出了FitNets。在Knowledge Distillation中有兩個(gè)關(guān)鍵的問(wèn)題,一是如何定義知識(shí),二是使用什么損失函數(shù)來(lái)度量student網(wǎng)絡(luò)和teacher 網(wǎng)絡(luò)之間的相似度。

這里主要介紹2017年的兩個(gè)相關(guān)工作。一是FSP方法,它實(shí)際上將原始網(wǎng)絡(luò)中feature map之間的相關(guān)度作為知識(shí)transfer到student network中,同時(shí)使用了L2損失函數(shù)。

另一個(gè)ICLR2017的工作在feature map中定義了attention,使用了三種不同的定義方法,將attention作為知識(shí)transfer到student network中。

下面是幾種主流方法在知識(shí)定義和損失函數(shù)選擇方面的對(duì)比。

最后簡(jiǎn)單講一下緊致網(wǎng)絡(luò)設(shè)計(jì)。我們剛才講到的幾種網(wǎng)絡(luò)加速和壓縮方法都是在原有非常復(fù)雜的網(wǎng)絡(luò)基礎(chǔ)上,對(duì)它進(jìn)行量化、剪枝,讓網(wǎng)絡(luò)規(guī)模變小、計(jì)算變快。我們可以考慮直接設(shè)計(jì)又小又快又好的網(wǎng)絡(luò),這就是緊致網(wǎng)絡(luò)設(shè)計(jì)的方法。我們主要講三個(gè)相關(guān)的工作。

先介紹谷歌在2017年和2018年連續(xù)推出的MobileNets V1和MobileNets V2,其中使用了depthwise的1x1卷積。MobileNets V1是一個(gè)在網(wǎng)絡(luò)非常精簡(jiǎn)情況下比較高性能的網(wǎng)絡(luò),MobileNets V2開(kāi)始于通道比較少的1×1的網(wǎng)絡(luò),然后映射到通道比較多的層,隨后做一個(gè)depthwise,最后再通過(guò)1x1卷積將它映射回去,這樣可以大幅減少1×1卷積計(jì)算量。

實(shí)際上MobileNets中1x1的卷積占有很大的比重,基于這樣的原則,曠視科技在CVPR2018提出把1×1的卷積通過(guò)分組來(lái)減少計(jì)算的方法,由于分組以后存在不同通道之間信息交流非常少的問(wèn)題,他們又在卷積層之間增加channel shuffle過(guò)程進(jìn)行隨機(jī)擾亂,增加了不同通道之間的信息交流。這是ShuffleNet所做的工作。

下面是緊致網(wǎng)絡(luò)設(shè)計(jì)幾種方法的比較。

最后簡(jiǎn)單講一下深度神經(jīng)網(wǎng)絡(luò)加速和壓縮的發(fā)展趨勢(shì)。第一,我們發(fā)現(xiàn)實(shí)際上現(xiàn)在絕大部分加速和壓縮的方法,都需要有一個(gè)fine-tuning的過(guò)程,這個(gè)過(guò)程需要有一定量的含有標(biāo)簽的原始訓(xùn)練樣本,這在實(shí)際應(yīng)用過(guò)程中可能會(huì)有一定的限制。會(huì)有一些Non-fine-tuning或者Unsupervised Compression方法的出現(xiàn)。實(shí)際上現(xiàn)在已經(jīng)有人在研究這方面的東西。第二,在加速和壓縮過(guò)程中會(huì)涉及到很多參數(shù),甚至還包含很多經(jīng)驗(yàn)性東西,將來(lái)能不能做到盡可能少需要、不需要經(jīng)驗(yàn)或者參數(shù)越少越好的self-adaptive方法。第三,現(xiàn)在很多加速壓縮方法往往都是針對(duì)分類問(wèn)題,未來(lái)在目標(biāo)檢測(cè)、語(yǔ)義分割方面也會(huì)出現(xiàn)類似的工作。第四,現(xiàn)在很多方法與硬件的結(jié)合越來(lái)越緊密,對(duì)于加速和壓縮方面來(lái)說(shuō)也是如此,未來(lái)肯定是之間的結(jié)合越來(lái)越多。最后是二值網(wǎng)絡(luò)越來(lái)越成熟,未來(lái)研究的人會(huì)越來(lái)越多。由于時(shí)間的關(guān)系只能簡(jiǎn)單介紹,可以參考我們最近剛發(fā)表在FITEE 2018上的綜述論文了解更多詳細(xì)的信息。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:讓機(jī)器“刪繁就簡(jiǎn)”:深度神經(jīng)網(wǎng)絡(luò)加速與壓縮|VALSE2018之六

文章出處:【微信號(hào):deeplearningclass,微信公眾號(hào):深度學(xué)習(xí)大講堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于賽靈思FPGA的卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)設(shè)計(jì)

    FPGA 上實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò) (CNN)。CNN 是一類深度神經(jīng)網(wǎng)絡(luò),在處理大規(guī)模圖像識(shí)別任務(wù)以及與機(jī)器學(xué)習(xí)類似的其他問(wèn)題方面已大獲成功。在當(dāng)前案例中,針對(duì)在 FPGA 上實(shí)現(xiàn) CN
    發(fā)表于 06-19 07:24

    如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    ,并能在腦海中重現(xiàn)這些圖像信息,這不僅與人腦的海量信息存儲(chǔ)能力有關(guān),還與人腦的信息處理能力,包括數(shù)據(jù)壓縮能力有關(guān)。在各種神經(jīng)網(wǎng)絡(luò)中,多層前饋神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)的信息處理能力,由于其采用BP算法,因此也
    發(fā)表于 08-08 06:11

    深度神經(jīng)網(wǎng)絡(luò)是什么

    多層感知機(jī) 深度神經(jīng)網(wǎng)絡(luò)in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    基于深度神經(jīng)網(wǎng)絡(luò)的激光雷達(dá)物體識(shí)別系統(tǒng)

    的激光雷達(dá)物體識(shí)別技術(shù)一直難以在嵌入式平臺(tái)上實(shí)時(shí)運(yùn)行。經(jīng)緯恒潤(rùn)經(jīng)過(guò)潛心研發(fā),攻克了深度神經(jīng)網(wǎng)絡(luò)在嵌入式平臺(tái)部署所面臨的算子定制與加速、量化策略、模型壓縮等難題,率先實(shí)現(xiàn)了高性能激光檢測(cè)
    發(fā)表于 12-21 07:59

    深度神經(jīng)網(wǎng)絡(luò)壓縮和正則化剖析

    利用深度壓縮和DSD訓(xùn)練來(lái)提高預(yù)測(cè)精度。 深度神經(jīng)網(wǎng)絡(luò)已經(jīng)成為解決計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別和自然語(yǔ)言處理等機(jī)器學(xué)習(xí)任務(wù)的最先進(jìn)的技術(shù)。盡管如此,深度
    發(fā)表于 11-16 13:11 ?1829次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>壓縮</b>和正則化剖析

    NVIDIA深度神經(jīng)網(wǎng)絡(luò)加速庫(kù)cuDNN軟件安裝教程

    計(jì)基于GPU的加速庫(kù) 。cuDNN為深度神經(jīng)網(wǎng)絡(luò)中的標(biāo)準(zhǔn)流程提供了高度優(yōu)化的實(shí)現(xiàn)方式,例如convolution、pooling、normalization以及activation layers的前向以及后向過(guò)程。 cuDNN只
    發(fā)表于 12-08 10:40 ?2284次閱讀

    不同神經(jīng)網(wǎng)絡(luò)量子態(tài)的最新進(jìn)展以及面臨的挑戰(zhàn)

    摘要???神經(jīng)網(wǎng)絡(luò)量子態(tài)是由人工神經(jīng)網(wǎng)絡(luò)所表示的量子態(tài)。得益于機(jī)器學(xué)習(xí),尤其是深度學(xué)習(xí)近年來(lái)取得的突破性進(jìn)展,
    的頭像 發(fā)表于 03-02 09:56 ?3144次閱讀

    基于深度神經(jīng)網(wǎng)絡(luò)的端到端圖像壓縮方法

    人工設(shè)計(jì)的算法分別進(jìn)行優(yōu)化近年來(lái),基于深度神經(jīng)網(wǎng)絡(luò)的端到端圖像壓縮方法在圖像壓縮取得了豐碩的成果,相比傳統(tǒng)方法,端到端圖像
    發(fā)表于 04-08 09:30 ?16次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的端到端圖像<b class='flag-5'>壓縮</b>方法

    深度神經(jīng)網(wǎng)絡(luò)模型的壓縮和優(yōu)化綜述

    近年來(lái),隨著深度學(xué)習(xí)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)受到了越來(lái)越多的關(guān)注,在許多應(yīng)用領(lǐng)域取得了顯著效果。通常,在較高的計(jì)算量下,深度
    發(fā)表于 04-12 10:26 ?20次下載
    <b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>模型的<b class='flag-5'>壓縮</b>和優(yōu)化綜述

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn) 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動(dòng)調(diào)整神經(jīng)元之間的權(quán)重,從而實(shí)現(xiàn)對(duì)大規(guī)模數(shù)據(jù)進(jìn)行預(yù)
    發(fā)表于 08-21 17:07 ?4168次閱讀

    淺析深度神經(jīng)網(wǎng)絡(luò)壓縮加速技術(shù)

    深度神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的一種框架,它是一種具備至少一個(gè)隱層的神經(jīng)網(wǎng)絡(luò)。與淺層神經(jīng)網(wǎng)絡(luò)類似
    的頭像 發(fā)表于 10-11 09:14 ?748次閱讀
    淺析<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>壓縮</b>與<b class='flag-5'>加速</b>技術(shù)

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNNs)是一類具有多個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò),它們?cè)谠S多領(lǐng)域取得了顯著的成功,如計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、語(yǔ)音識(shí)別等。以下是一些常見(jiàn)
    的頭像 發(fā)表于 07-02 10:00 ?1498次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指?jìng)鹘y(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需
    的頭像 發(fā)表于 07-04 13:20 ?921次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)壓縮方法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為深度學(xué)習(xí)領(lǐng)域的重要分支,在圖像識(shí)別、視頻處理、自然語(yǔ)言處理等多個(gè)領(lǐng)域取得了顯著成就。然而,隨著網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-11 11:46 ?381次閱讀

    殘差網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    殘差網(wǎng)絡(luò)(Residual Network,通常簡(jiǎn)稱為ResNet) 是深度神經(jīng)網(wǎng)絡(luò)的一種 ,其獨(dú)特的結(jié)構(gòu)設(shè)計(jì)在解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失和梯度爆炸問(wèn)題上
    的頭像 發(fā)表于 07-11 18:13 ?1117次閱讀