0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

電子設(shè)計 ? 來源:網(wǎng)絡(luò)整理 ? 作者:工程師吳畏 ? 2018-06-20 14:27 ? 次閱讀

0 引言

隨著深度學(xué)習(xí)的廣泛應(yīng)用與發(fā)展[1-2],卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)被使用的場景越來越多,特別是在圖像識別場景中獲得了突破性的發(fā)展。CNN擁有多層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其自身擁有較強的容錯、學(xué)習(xí)和并行處理能力[3],是一種擁有多層感知器,局部連接和權(quán)值共享的網(wǎng)絡(luò)結(jié)構(gòu)[4],從而降低了網(wǎng)絡(luò)模型的復(fù)雜性和網(wǎng)絡(luò)連接權(quán)值的個數(shù),因此近幾年來CNN在視頻分析[5-6]、人臉識別[7-8]等領(lǐng)域得到了廣泛的應(yīng)用。

雖然CNN的應(yīng)用廣泛,但其模型參數(shù)的訓(xùn)練往往需要大量的用時,特別是當(dāng)數(shù)據(jù)量很大的時候。在現(xiàn)階段實現(xiàn)深度卷積神經(jīng)網(wǎng)絡(luò)主要是使用消費級的通用處理器CPU來實現(xiàn)的[9],但是在CNN的模型結(jié)構(gòu)中,其每一層內(nèi)的卷積運算都只與當(dāng)前層的特征運算核相關(guān),與其他層是獨立且不相關(guān)的,所以CNN是一種典型的并行運算結(jié)構(gòu)。而現(xiàn)場可編程門陣列(Field-Programmable Gate Array,FPGA)作為一種高度密集型計算加速器件,可通過硬件描述語言完成算法實現(xiàn),從而利用FPGA的硬件結(jié)構(gòu)特性實現(xiàn)并行運算的加速。

本文首先對深度學(xué)習(xí)中的CNN進(jìn)行了介紹,然后設(shè)計一種基于FPGA的CNN系統(tǒng),通過流水線和并行處理減少了訓(xùn)練參數(shù)所需用時,提升了系統(tǒng)的計算性能。為了驗證設(shè)計的功能性,最后采用MINST數(shù)據(jù)集作為系統(tǒng)驗證。

1 CNN

1.1 CNN模型

CNN是基于神經(jīng)認(rèn)知機模型(Neocognitron Model)的一種深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),是當(dāng)前應(yīng)用最為廣泛的模型結(jié)構(gòu)。CNN在確定模型參數(shù)時首先利用前向傳播來獲取和輸出目標(biāo)的誤差,然后再通過高效的反向傳播訓(xùn)練算法來實現(xiàn)參數(shù)的確定。一般經(jīng)典的CNN模型是由輸入層、卷積層、池化層、全連接層和分類層組合而構(gòu)成的,在CNN中卷積層和不同的卷積核進(jìn)行局部連接,從而產(chǎn)生輸入數(shù)據(jù)的多個特征輸出,將輸出經(jīng)過池化層降維后通過全連接層和分類層獲取與輸出目標(biāo)的誤差,再利用反向傳播算法反復(fù)地更新CNN中相鄰層神經(jīng)元之間的連接權(quán)值,縮小與輸出目標(biāo)的誤差,最終完成整個模型參數(shù)的訓(xùn)練。圖1是一種典型的CNN網(wǎng)絡(luò)結(jié)構(gòu),數(shù)據(jù)使用不同權(quán)重的卷積核Kernel經(jīng)過卷積運算,將運算的結(jié)果經(jīng)過激活函數(shù)ReLU后加上偏置Bias得到多個特征輸出,然后經(jīng)過池化進(jìn)行層降維處理后再與全連接層進(jìn)行全連接,最后經(jīng)過分類器Softmax函數(shù)進(jìn)行輸出分類。

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

得到分類結(jié)果后,經(jīng)過與輸出目標(biāo)進(jìn)行比較得出誤差,最后使用反向傳播算法得出每一層的殘差,利用殘差計算出新的權(quán)值并更新原有的權(quán)值。以上整個過程可由式(1)和式(2)表示:

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

1.2 本文CNN模型

本文所設(shè)計的CNN網(wǎng)絡(luò)模型結(jié)構(gòu)如圖2所示,該結(jié)構(gòu)有1個輸入層、4個卷積層、2個池化層、1個全連接層、1個采用Softmax函數(shù)的分類層和1個輸出層,共8層。

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

第1層和第8層為輸入層和輸出層。輸入層完成測試圖像數(shù)據(jù)的輸入獲取,因為采用MNIST數(shù)據(jù)集,所以輸入數(shù)據(jù)為784個。輸出層與前一層連接的權(quán)重個數(shù)為20×10=200,輸出結(jié)果為10種。

第2、3、5、7層均為為卷積層。輸出特征圖的個數(shù)分別為5、5、10、20,每層卷積核大小分別為5×5,5×5,5×5,3×3,卷積核移動步長均為1,系統(tǒng)設(shè)計采用ReLU作為激活函數(shù),每一層的參數(shù)為:

第2層:權(quán)重為5×5×5=125個,偏置為5個;

第3層:權(quán)重為5×5×5×5=625個,偏置為5個;

第5層:權(quán)重為5×5×5×10=1 250個,偏置為10個;

第7層:權(quán)重為3×3×10×20=1 800個,偏置為20個;因此整個卷積層總共有3 840個參數(shù)。

第4、6層為池化層。在池化層也采用卷積運算,卷積核大小為2×2,使用平均池化方法。

2 CNN系統(tǒng)硬件設(shè)計

整個系統(tǒng)硬件根據(jù)CNN網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行設(shè)計,利用FPGA硬件電路并行特性將每一層設(shè)計為單獨的一個模塊,最后的分類層利用本文所設(shè)計的Softmax分類器來完成輸入數(shù)據(jù)的分類結(jié)果,再經(jīng)過反向傳播算法計算出所需要更新的權(quán)值。整體系統(tǒng)設(shè)計結(jié)構(gòu)如圖3所示。

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

系統(tǒng)首先由控制器初始化每一層卷積核Kernel的權(quán)重數(shù)值索引地址,根據(jù)索引地址從RAM模塊當(dāng)中加載權(quán)重數(shù)值和偏置值。在前向傳播時將輸入數(shù)據(jù)通過輸入信號進(jìn)入數(shù)據(jù)緩沖區(qū),然后根據(jù)每層的輸出特征圖的個數(shù)與卷積核完成卷積運算,將運算的結(jié)果經(jīng)過激活函數(shù)ReLU和偏置完成當(dāng)前層的最終輸出特征圖并輸入下一層當(dāng)中。當(dāng)經(jīng)過池化層時進(jìn)行下采樣運算,從而降低特征圖的維數(shù)。最后Softmax分類器根據(jù)輸入的數(shù)據(jù)通過查找ROM中與之對應(yīng)的數(shù)值在經(jīng)過概率轉(zhuǎn)換后完成最終的輸出結(jié)果。在反向傳播時,根據(jù)ROM當(dāng)中的標(biāo)簽與輸出結(jié)果進(jìn)行比較得出每一層的殘差保存至RAM當(dāng)中,計算完成后根據(jù)所設(shè)定的學(xué)習(xí)率來完成所有卷積層中卷積核的權(quán)值和偏置值的更新,并將更新后的權(quán)值由控制器保存到相應(yīng)的存儲位置,直至所有訓(xùn)練數(shù)據(jù)輸入完成。

2.1 卷積層硬件設(shè)計

在圖3的卷積層中,首先將輸入數(shù)據(jù)進(jìn)行緩存處理。因為要進(jìn)行卷積運算,所以必須將輸入的數(shù)據(jù)根據(jù)每個卷積層的卷積核Kernel的大小來進(jìn)行與之相對應(yīng)的大小調(diào)整。在系統(tǒng)設(shè)計中通過使用移位寄存器(Shift Register)來實現(xiàn)對數(shù)據(jù)的處理,移位寄存器能夠?qū)?shù)據(jù)在進(jìn)行緩存的同時進(jìn)行移位處理,該器件能夠根據(jù)所設(shè)定的深度來對數(shù)據(jù)進(jìn)行轉(zhuǎn)換處理,當(dāng)需要數(shù)據(jù)進(jìn)行輸出的時候只需增加抽頭輸出信號即可將數(shù)據(jù)進(jìn)行輸出,利用移位寄存器就能夠在1個時鐘周期完成1次卷積運算。在計算出當(dāng)前輸入數(shù)據(jù)的特征輸出圖后還需經(jīng)過激活函數(shù),系統(tǒng)設(shè)計使用硬件容易實現(xiàn)的ReLU函數(shù)作為激活函數(shù),該函數(shù)在輸入值大于0時輸出原輸入值,小于零時輸出0,因此使用比較器即可實現(xiàn)。其卷積運算具體實現(xiàn)過程如圖4所示。

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

圖4是卷積核大小為3×3時的運算過程,Shift_in是數(shù)據(jù)輸入,wi為該卷積核權(quán)重值,mi為輸出數(shù)據(jù)緩存寄存器。

2.2 卷積層計算硬件優(yōu)化

由于FPGA硬件電路的并行特性,其當(dāng)中每個模塊的計算是相互獨立互不相關(guān)的,并且CNN網(wǎng)絡(luò)結(jié)構(gòu)中每層的計算也是相互獨立的,充分體現(xiàn)了整個結(jié)構(gòu)的并行性,特別是卷積運算。因此系統(tǒng)設(shè)計中采用了并行設(shè)計的方法,設(shè)計根據(jù)卷積層上一層的輸出特征圖的個數(shù)和當(dāng)前卷積層需要輸出特征圖的個數(shù)分別為每個特征圖設(shè)計了相應(yīng)的卷積核組,利用流水線技術(shù)和并行運算同時對每個卷積核組完成與之對應(yīng)的特征抽取,因為系統(tǒng)設(shè)計中對池化層的下采樣也采用了卷積運算來完成,所以對于本系統(tǒng)則能夠在1個時鐘周期內(nèi)完成295次卷積運算,相較于通用CPU運算,本系統(tǒng)設(shè)計運算效率得到了顯著提升。系統(tǒng)卷積運算優(yōu)化設(shè)計具體結(jié)構(gòu)如圖5所示。

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

圖5中xi為特征圖輸入,wij分別是每個卷積核組內(nèi)不同卷積核的權(quán)值,ki為不同的卷積核組,ci為計算結(jié)果輸出。

2.3 Softmax分類器

在經(jīng)過多層的卷積層和池化層的運算后最終得到當(dāng)前輸入數(shù)據(jù)的特征值,將特征值與最后的輸出層進(jìn)行全連接得出最終的分類結(jié)果。系統(tǒng)設(shè)計中的分類器使用Softmax函數(shù)來完成最后結(jié)果的輸出,但Softmax函數(shù)是將所有輸入數(shù)據(jù)通過e指數(shù)運算進(jìn)而得出輸出概率分布,且概率分布的數(shù)值范圍是0~1之間的浮點數(shù),而FPGA并不適合進(jìn)行浮點數(shù)運算,并且完成e指數(shù)運算所消耗時間較長。因此系統(tǒng)設(shè)計中采用查表法來完成e指數(shù)運算,通過事先將計算后的指數(shù)運算結(jié)果存儲至ROM當(dāng)中,然后根據(jù)輸入的特征值作為地址來查找所對應(yīng)的指數(shù)結(jié)果。經(jīng)過軟件平臺測試,特征值經(jīng)過放大后的取值范圍是-70~80,范圍較大,為了減少ROM的存儲消耗,系統(tǒng)設(shè)計中將處理后的特征值計算的數(shù)值結(jié)果縮小至-30~40之間并進(jìn)行取整處理,雖然該做法在一定程度上增強或減弱了對應(yīng)特征值的比重,但降低了查表所需存儲數(shù)值ROM的存儲空間,減少了資源的消耗。Softmax分類器的設(shè)計電路結(jié)構(gòu)圖如圖6所示。

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

設(shè)計中首先將特征值輸入經(jīng)過查表得出對應(yīng)指數(shù)運算的結(jié)果,同時將結(jié)果進(jìn)行累加運算,最后相除從而計算出分類的結(jié)果。

3 系統(tǒng)仿真與分析

系統(tǒng)設(shè)計中的硬件使用Altera公司的Cyclone IV EP4CE115芯片作為試驗平臺,該芯片內(nèi)部擁有114 480個邏輯單元,6.3 MB的嵌入式存儲器,266個嵌入式18×18乘法器,片內(nèi)資源豐富,能夠滿足CNN系統(tǒng)硬件設(shè)計中所需要的資源,CPU測試平臺使用Core i7四核處理器,主頻為3.4 GHz。

仿真過程中,整個CNN的學(xué)習(xí)率設(shè)置為0.04,每次輸入批次為30張,迭代次數(shù)為2 000次,實驗樣本訓(xùn)練數(shù)據(jù)為MNIST數(shù)據(jù)集28×28像素的灰度圖片60 000張,圖像數(shù)值范圍為0~255,測試數(shù)據(jù)為10 000張,使用均方誤差函數(shù)作為損失函數(shù)來評價CNN整體系統(tǒng)的性能,最終實驗運行結(jié)果如圖7所示。

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

可以看出在硬件平臺運行和軟件平臺運行均能夠?qū)崿F(xiàn)對結(jié)果的正確分類,在訓(xùn)練的最開始由于權(quán)重值是隨機初始化的,因此誤差較大,隨著不斷地迭代更新權(quán)值,誤差逐漸降低,最后其對圖像識別準(zhǔn)確率分別為92.42%和96.21%,識別的準(zhǔn)確率基本一致。硬件平臺的準(zhǔn)確度不如軟件平臺高,是由于在分類器中對Softmax函數(shù)的輸入取值做了一定的限定,并在整個訓(xùn)練過程中進(jìn)行了數(shù)據(jù)的放大處理和取整,損失了一定的精度。硬件平臺的訓(xùn)練時間和軟件平臺訓(xùn)練所需的時間消耗如表1所示。

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

硬件平臺整個訓(xùn)練所用時間相較于軟件平臺運算的時間提升了8.7倍,系統(tǒng)設(shè)計主要的硬件資源消耗如表2所示。

關(guān)于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的設(shè)計及硬件實現(xiàn)

系統(tǒng)設(shè)計因為中使用了大量的移位寄存器和緩存寄存器來存儲特征值的輸入值,使得寄存器的使用較多,但可以看出實驗所用使用的FPGA能夠滿足本文所設(shè)計的CNN網(wǎng)絡(luò)結(jié)構(gòu)。

4 結(jié)論

本文設(shè)計了一種深度學(xué)習(xí)中的CNN硬件系統(tǒng),通過FPGA實現(xiàn)了整個CNN網(wǎng)絡(luò)結(jié)構(gòu),充分利用了FPGA的硬件電路并行特性和流水線技術(shù),對整個卷積層進(jìn)行了并行運算優(yōu)化,使得整個系統(tǒng)能夠在1個時鐘周期內(nèi)同時處理所有卷積層中295次卷積運算,從而使得整個網(wǎng)絡(luò)訓(xùn)練用時相較于通用CPU平臺提升了8.7倍,減少了網(wǎng)絡(luò)訓(xùn)練的所需用時,并且設(shè)計了一種通過查表法實現(xiàn)的Softmax分類器來完成對輸出結(jié)果的分類。實驗結(jié)果表明,該系統(tǒng)設(shè)計能夠?qū)NIST測試數(shù)據(jù)集完成識別分類且識別準(zhǔn)確率經(jīng)過2 000次迭代后為92.42%,結(jié)果基本與相同訓(xùn)練次數(shù)下的CPU平臺一致。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1629

    文章

    21736

    瀏覽量

    603419
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4771

    瀏覽量

    100772
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    352

    瀏覽量

    22215
收藏 人收藏

    評論

    相關(guān)推薦

    詳解深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    處理技術(shù)也可以通過深度學(xué)習(xí)來獲得更優(yōu)異的效果,比如去噪、超分辨率和跟蹤算法等。為了跟上時代的步伐,必須對深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)技術(shù)有所
    的頭像 發(fā)表于 01-11 10:51 ?2053次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    基于賽靈思FPGA的卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)設(shè)計

    FPGA 上實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò) (CNN)。CNN 是一類深度神經(jīng)網(wǎng)絡(luò),在處理大規(guī)模圖像識別任務(wù)以及與機器
    發(fā)表于 06-19 07:24

    卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實例探究及學(xué)習(xí)總結(jié)

    深度學(xué)習(xí)工程師-吳恩達(dá)》03卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò)
    發(fā)表于 05-22 17:15

    卷積神經(jīng)網(wǎng)絡(luò)CNN介紹

    深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)CNN
    發(fā)表于 06-14 18:55

    解析深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實踐

    解析深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實踐
    發(fā)表于 06-14 22:21

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    network,DBN)[24], 從此拉開了深度學(xué)習(xí)大幕。隨著深度學(xué)習(xí)理論的研究和發(fā)展,研究人員提 出了一系列卷積
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡(luò)簡介:什么是機器學(xué)習(xí)

    抽象人工智能 (AI) 的世界正在迅速發(fā)展,人工智能越來越多地支持以前無法實現(xiàn)或非常難以實現(xiàn)的應(yīng)用程序。本系列文章解釋了卷積神經(jīng)網(wǎng)絡(luò) (CNN) 及其在 AI
    發(fā)表于 02-23 20:11

    深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)層級分解綜述

    隨著深度學(xué)習(xí)的不斷發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在目標(biāo)檢測與圖像分類受到研究者的廣泛關(guān)注。CNN從 Lenet5
    發(fā)表于 05-19 16:11 ?5次下載

    什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)?

    在介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識。就目前而言,神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法的核
    的頭像 發(fā)表于 02-23 09:14 ?3540次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)原理:卷積神經(jīng)網(wǎng)絡(luò)模型和卷積神經(jīng)網(wǎng)絡(luò)算法

    一。其主要應(yīng)用領(lǐng)域在計算機視覺和自然語言處理,最初是由Yann LeCun等人在20世紀(jì)80年代末和90年代初提出的。隨著近年來計算機硬件性能的提升和深度學(xué)習(xí)技術(shù)的發(fā)展,CNN在很多
    的頭像 發(fā)表于 08-17 16:30 ?1471次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    深度學(xué)習(xí)算法。CNN模型最早被提出是為了處理圖像,其模型結(jié)構(gòu)包含卷積層、池化層和全連接層等關(guān)鍵技術(shù),經(jīng)過多個卷積層和池化層的處理,CNN
    的頭像 發(fā)表于 08-21 16:49 ?1880次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)算法,其主要特點是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動調(diào)整神經(jīng)
    發(fā)表于 08-21 17:07 ?4132次閱讀

    深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為其中的重要分支,已經(jīng)在多個領(lǐng)域取得了顯著的應(yīng)用成果。從圖像識
    的頭像 發(fā)表于 07-02 18:19 ?912次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)原理

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹
    的頭像 發(fā)表于 07-03 10:49 ?553次閱讀

    深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度
    的頭像 發(fā)表于 11-15 14:52 ?343次閱讀