0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何去理解CNN卷積層與池化層計(jì)算?

電子工程師 ? 來(lái)源:51CTO博客gloomyfish ? 作者:gloomyfish ? 2021-04-06 15:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

概述

深度學(xué)習(xí)中CNN網(wǎng)絡(luò)是核心,對(duì)CNN網(wǎng)絡(luò)來(lái)說(shuō)卷積層與池化層的計(jì)算至關(guān)重要,不同的步長(zhǎng)、填充方式、卷積核大小、池化層策略等都會(huì)對(duì)最終輸出模型與參數(shù)、計(jì)算復(fù)雜度產(chǎn)生重要影響,本文將從卷積層與池化層計(jì)算這些相關(guān)參數(shù)出發(fā),演示一下不同步長(zhǎng)、填充方式、卷積核大小計(jì)算結(jié)果差異。

一:卷積層

卷積神經(jīng)網(wǎng)絡(luò)(CNN)第一次提出是在1997年,楊樂(lè)春(LeNet)大神的一篇關(guān)于數(shù)字OCR識(shí)別的論文,在2012年的ImageNet競(jìng)賽中CNN網(wǎng)絡(luò)成功擊敗其它非DNN模型算法,從此獲得學(xué)術(shù)界的關(guān)注與工業(yè)界的興趣。毫無(wú)疑問(wèn)學(xué)習(xí)深度學(xué)習(xí)必須要學(xué)習(xí)CNN網(wǎng)絡(luò),學(xué)習(xí)CNN就必須明白卷積層,池化層等這些基礎(chǔ)各層,以及它們的參數(shù)意義,從本質(zhì)上來(lái)說(shuō),圖像卷積都是離散卷積,圖像數(shù)據(jù)一般都是多維度數(shù)據(jù)(至少兩維),離散卷積本質(zhì)上是線性變換、具有稀疏與參數(shù)重用特征即相同參數(shù)可以應(yīng)用輸入圖像的不同小分塊,假設(shè)有3x3離散卷積核如下:

pIYBAGBsCaaAXhtpAAAVeBDiS9Q778.png

假設(shè)有

5x5的圖像輸入塊

步長(zhǎng)為1(strides=1)

填充方式為VALID(Padding=VALID)

卷積核大小filter size=3x3

則它們的計(jì)算過(guò)程與輸出如下

100017588-59694-2.png

假設(shè)這個(gè)時(shí)候我們修改步長(zhǎng)為2、填充方式為SAME,卷積核大小不變(strides=2 Padding=SAME filter size=3x3),則計(jì)算過(guò)程與輸出變?yōu)槿缦拢?/p>

100017588-59695-3.png

最終輸出得到的結(jié)果我們可以稱為featuremap,CNN的深度多數(shù)時(shí)候是指featuremap的個(gè)數(shù),對(duì)多維度的輸入圖像計(jì)算多個(gè)卷積核,得到多個(gè)featuremap輸出疊加,顯示如下:

100017588-59696-4.png

上述輸入為5x5x2,使用卷積核3x3,輸出3x3x3,填充方式為VALID,計(jì)算如果填充方式改為SAME則輸出為5x5x3??梢钥闯鎏畛浞绞綄?duì)輸出結(jié)果的影響。

二:小卷積核VS大卷積核

在AlexNet中有有11x11的卷積核與5x5的卷積核,但是在VGG網(wǎng)絡(luò)中因?yàn)閷訑?shù)增加,卷積核都變成3x3與1x1的大小啦,這樣的好處是可以減少訓(xùn)練時(shí)候的計(jì)算量,有利于降低總的參數(shù)數(shù)目。關(guān)于如何把大卷積核替換為小卷積核,本質(zhì)上有兩種方法。

1. 將二維卷積差分為兩個(gè)連續(xù)一維卷積

二維卷積都可以拆分為兩個(gè)一維的卷積,這個(gè)是有數(shù)學(xué)依據(jù)的,所以11x11的卷積可以轉(zhuǎn)換為1x11與11x1兩個(gè)連續(xù)的卷積核計(jì)算,總的運(yùn)算次數(shù):

11x11 = 121次

1x11+ 11x1 = 22次

2.將大二維卷積用多個(gè)連續(xù)小二維卷積替代
可見把大的二維卷積核在計(jì)算環(huán)節(jié)改成兩個(gè)連續(xù)的小卷積核可以極大降低計(jì)算次數(shù)、減少計(jì)算復(fù)雜度。同樣大的二維卷積核還可以通過(guò)幾個(gè)小的二維卷積核替代得到。比如:5x5的卷積,我們可以通過(guò)兩個(gè)連續(xù)的3x3的卷積替代,比較計(jì)算次數(shù)

5x5= 25次

3x3+ 3x3=18次

三:池化層

在CNN網(wǎng)絡(luò)中卷積池之后會(huì)跟上一個(gè)池化層,池化層的作用是提取局部均值與最大值,根據(jù)計(jì)算出來(lái)的值不一樣就分為均值池化層與最大值池化層,一般常見的多為最大值池化層。池化的時(shí)候同樣需要提供filter的大小、步長(zhǎng)、下面就是3x3步長(zhǎng)為1的filter在5x5的輸入圖像上均值池化計(jì)算過(guò)程與輸出結(jié)果

100017588-59697-5.png

改用最大值做池化的過(guò)程與結(jié)果如下:

100017588-59698-6.png

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    18730
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22685
  • vgg
    vgg
    +關(guān)注

    關(guān)注

    1

    文章

    11

    瀏覽量

    5334
  • 池化
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    1173
收藏 0人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    這個(gè)小型網(wǎng)絡(luò),用于描述網(wǎng)絡(luò)的方程中也具有32個(gè)偏置和32個(gè)權(quán)重。 CIFAR神經(jīng)網(wǎng)絡(luò)是一種廣泛用于圖像識(shí)別的CNN。它主要由兩種類型的組成:卷積
    發(fā)表于 10-24 13:56

    cnn常用的幾個(gè)模型有哪些

    1998年提出。它主要用于手寫數(shù)字識(shí)別,包括卷積、和全連接。 AlexNet:Alex
    的頭像 發(fā)表于 07-11 14:58 ?1835次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本概念、原理及特點(diǎn)

    的基本概念、原理、特點(diǎn)以及在不同領(lǐng)域的應(yīng)用情況。 一、卷積神經(jīng)網(wǎng)絡(luò)的基本概念 卷積神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)算法,它由多層卷積
    的頭像 發(fā)表于 07-11 14:38 ?2363次閱讀

    神經(jīng)網(wǎng)絡(luò)中的卷積與全連接

    在深度學(xué)習(xí)中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種特別適用于處理圖像數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過(guò)卷積、
    的頭像 發(fā)表于 07-11 14:18 ?9877次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)中的作用

    在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)以其卓越的圖像處理和計(jì)算機(jī)視覺(jué)能力而廣受歡迎。CNN由多個(gè)
    的頭像 發(fā)表于 07-03 15:58 ?3243次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)示例

    分類。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積(Convolutional Layer) 卷積
    的頭像 發(fā)表于 07-03 10:51 ?775次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)分類方法有哪些

    ,包括基本原理、常見架構(gòu)、優(yōu)化策略、應(yīng)用場(chǎng)景等。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),其核心思想是通過(guò)卷積提取輸入數(shù)據(jù)的局部特征,并通過(guò)
    的頭像 發(fā)表于 07-03 09:40 ?993次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)計(jì)算過(guò)程和步驟

    。 卷積(Convolutional Layer) 卷積卷積神經(jīng)網(wǎng)絡(luò)的核心組成部分,它通過(guò)卷積
    的頭像 發(fā)表于 07-03 09:36 ?1415次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的組成部分有哪些

    卷積、、激活函數(shù)、全連接、損失函數(shù)、優(yōu)化算法等,并探討它們?cè)?/div>
    的頭像 發(fā)表于 07-03 09:31 ?1969次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,由多層卷積
    的頭像 發(fā)表于 07-03 09:28 ?1428次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)可以通過(guò)輸出反推到輸入嗎

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語(yǔ)言處理等領(lǐng)域。CNN通過(guò)卷積
    的頭像 發(fā)表于 07-03 09:17 ?1149次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)每一的作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)算法,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)每一的作用
    的頭像 發(fā)表于 07-02 15:28 ?2846次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過(guò)程及應(yīng)用領(lǐng)域

    (Convolutional Layer),它通過(guò)卷積運(yùn)算提取輸入數(shù)據(jù)的特征,然后通過(guò)(Pooling Layer)和全連接(Ful
    的頭像 發(fā)表于 07-02 15:26 ?5685次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn模型有哪些

    (Convolutional Layer) 卷積CNN的核心,用于提取圖像的局部特征。卷積操作通過(guò)滑動(dòng)窗口(濾波器或卷積核)在輸入數(shù)據(jù)上
    的頭像 發(fā)表于 07-02 15:24 ?1231次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn的主要作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中一種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域。在CNN中,
    的頭像 發(fā)表于 07-02 14:50 ?2433次閱讀

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品