0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)中的池化方式

OpenCV學(xué)堂 ? 來源:OpenCV學(xué)堂 ? 2023-10-21 09:42 ? 次閱讀

重疊與區(qū)域+最大與均值池化

卷積神經(jīng)網(wǎng)絡(luò)的最基本結(jié)構(gòu)有卷積層跟池化層,一般情況下,池化層的作用一般情況下就是下采樣與像素遷移不變性。根據(jù)步長區(qū)分,池化可以分為重疊池化與區(qū)域池化,圖示如下:

030394f4-5f8a-11ee-939d-92fbcf53809c.png

上面的池化都是使用窗口內(nèi)的最大值,因此又稱為最大值池化,除了最大值池化,還有均值池化可以使用,關(guān)于最大值池化與均值池化的計(jì)算方式圖示如下:

030f0d2a-5f8a-11ee-939d-92fbcf53809c.png

圖1

這個時候很多人會討論,均值池化與最大值池化哪種方式最好的問題,其實(shí)我只要給大家看一張圖,大家就會馬上明白,所謂最好是個無聊的問題:

0333d876-5f8a-11ee-939d-92fbcf53809c.png

圖2

可見無論是哪種池化方式都有自己的弊端!

全局池化方式

上面的池化方式主要是在卷積層中使用,在卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)中還有一類池化,稱為全局池化方式,這里池化主要包括全局均值池化與全局最大池化,圖示如下:

03482a9c-5f8a-11ee-939d-92fbcf53809c.png

圖3

0355505a-5f8a-11ee-939d-92fbcf53809c.png

圖4

此外還有一種相對來說比較少見的全局池化方式,它稱為:全局深度池化,假設(shè)的它輸入是圖4左側(cè)部分,則池化之后的輸出之后w跟h值仍然為6保持不變,但是深度d=1,不管之前的d值是多大,深度池化之后的d=1,全局深度池化還可以進(jìn)一步細(xì)分為全局深度均值池化與全局深度最大值池化。

變種池化方式

上面都是常用跟比較正常的池化方式,最近池化方式還產(chǎn)生一些比較特殊的池化方式。這些池化方式主要包括:

01混合池化

最大值池化主要提取最大激活,而均值池化則通過抑制最大激活來實(shí)現(xiàn)池化,這兩中方式都有弊端,為了克服這兩張池化方式的弊端,有人提出了混合池化方式,它公式表示如下:

036b568e-5f8a-11ee-939d-92fbcf53809c.png

其中參數(shù)使用隨機(jī)選擇,當(dāng)為0時候是均值池化,當(dāng)為1時候?yàn)樽畲笾党鼗?/p>

02Lp池化

通過正則化改進(jìn)比最大池化的效果要好,其公式表示如下:

037794f8-5f8a-11ee-939d-92fbcf53809c.png

當(dāng)p=1,時候它就是均值池化效果

當(dāng)p等于無窮大時候,其效果接近于最大池化效果

當(dāng)p>1 時候兼有均值池化與最大池化的效果

03世故池化

它的工作方式解析如下:

0381fc90-5f8a-11ee-939d-92fbcf53809c.png

0390bd0c-5f8a-11ee-939d-92fbcf53809c.png

04空間金字塔池化(SPP池化)

通過池化輸出指定大小的特征向量,從而限制網(wǎng)絡(luò)輸出的大小,SPP層一般位于卷積神經(jīng)網(wǎng)絡(luò)的最后一個卷積層,通過SPP池化固定大小輸出,然后交給全鏈接層處理。SPP層池化過程圖示如下:

03a3a642-5f8a-11ee-939d-92fbcf53809c.png

05ROI池化(Region of Interest Pooling)

是在RCNN系列網(wǎng)絡(luò)中使用的池化層,主要用來實(shí)現(xiàn)把不同比率或者分辨率大小的輸入特征轉(zhuǎn)換為固定大小特征。ROI Pooling圖示如下:

03c3d70a-5f8a-11ee-939d-92fbcf53809c.png

06MOP池化(Multi-scale order-less pooling

基于多尺度的池化方式,提升了卷積網(wǎng)絡(luò)的不變性同時沒有破壞卷積網(wǎng)絡(luò)的可鑒別性,分布從全局與局部池化中提取特征

07超像素池化(Super-pixel Pooling)

超像素本質(zhì)上是一張過度分割的圖像,一般都是基于像素分組的方式生成,圖像的超像素表示在對象檢測、語義分割、顯著性檢測、光流與深度估算、對象跟蹤上都有廣泛有用。

通過一個超像素池化網(wǎng)絡(luò)(SPN)實(shí)現(xiàn)低水平的圖像結(jié)構(gòu)提取從而提供給弱監(jiān)督情景下的圖像語義分割與學(xué)習(xí)。

08光譜池化

圖像池化不光發(fā)生在空間域,還可以通過DFT變換,在頻域空間實(shí)現(xiàn)池化。

不同的池化采樣方式得到的不同清晰度與分辨率的圖像。

09基于排名的均值池化

這種池化方式的好處事可以克服最大池化與均值池化方式的不足,公式如下:

043f5592-5f8a-11ee-939d-92fbcf53809c.png

圖示解釋如下:

044abb4e-5f8a-11ee-939d-92fbcf53809c.png

更多的池化池化方式還包括行池化,基于權(quán)重的池化等,還有各種基于池化的深度神經(jīng)網(wǎng)絡(luò),總之,選擇適合的池化方式也是一門技術(shù)活!

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:干貨 | 那些鬼斧神工的池化操作,看完我炸裂!

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【PYNQ-Z2申請】基于PYNQ的卷積神經(jīng)網(wǎng)絡(luò)加速

    ,得到訓(xùn)練參數(shù)2、利用開發(fā)板arm與FPGA聯(lián)合的特性,在arm端實(shí)現(xiàn)圖像預(yù)處理已經(jīng)卷積神經(jīng)網(wǎng)絡(luò)、激活函數(shù)和全連接,在FPGA端實(shí)現(xiàn)卷積
    發(fā)表于 12-19 11:37

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    卷積神經(jīng)網(wǎng)絡(luò)一維卷積的處理過程

    。本文就以一維卷積神經(jīng)網(wǎng)絡(luò)為例談?wù)勗趺磥磉M(jìn)一步優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)使用的memory。文章(卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 12-23 06:16

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    的過程存在梯度消失的問題[23],神經(jīng)網(wǎng)絡(luò)再 次慢慢淡出人們的視線。1998 年 LeCun 發(fā)明了 LeNet-5,并在 Mnist 數(shù)據(jù) 集達(dá)到 98%以上的識別準(zhǔn)確率,形成影響深遠(yuǎn)的卷積
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡(luò)簡介:什么是機(jī)器學(xué)習(xí)?

    ,用于描述網(wǎng)絡(luò)的方程也有 32 個偏差和 32 個權(quán)重。CIFAR神經(jīng)網(wǎng)絡(luò)是一種廣泛用于圖像識別任務(wù)的CNN。它由兩種主要類型的層組成:卷積層和
    發(fā)表于 02-23 20:11

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)發(fā)展 卷積神經(jīng)網(wǎng)絡(luò)三大特點(diǎn)

    中最重要的神經(jīng)網(wǎng)絡(luò)之一。它是一種由多個卷積層和層(也可稱為下采樣層)組成的神經(jīng)網(wǎng)絡(luò)。CNN 的基本思想是以圖像為輸入,通過
    的頭像 發(fā)表于 08-21 16:49 ?2739次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)層級結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)卷積層講解

    像分類、目標(biāo)檢測、人臉識別等。卷積神經(jīng)網(wǎng)絡(luò)的核心是卷積層和層,它們構(gòu)成了網(wǎng)絡(luò)的主干,實(shí)現(xiàn)了對
    的頭像 發(fā)表于 08-21 16:49 ?9216次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    的深度學(xué)習(xí)算法。CNN模型最早被提出是為了處理圖像,其模型結(jié)構(gòu)包含卷積層、層和全連接層等關(guān)鍵技術(shù),經(jīng)過多個卷積層和
    的頭像 發(fā)表于 08-21 16:49 ?2063次閱讀

    常見的卷積神經(jīng)網(wǎng)絡(luò)模型 典型的卷積神經(jīng)網(wǎng)絡(luò)模型

    LeNet是卷積神經(jīng)網(wǎng)絡(luò)的開山祖師,是由Yan LeCunn在1998年提出的經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型。它最初是為手寫體數(shù)字識別而設(shè)計(jì)的,由卷積
    的頭像 發(fā)表于 08-21 17:11 ?3237次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測模型 生成卷積神經(jīng)網(wǎng)絡(luò)模型

    視覺領(lǐng)域,隨著人們對該模型的深入研究,它也逐漸被應(yīng)用于自然語言處理、語音識別等領(lǐng)域。本文將著重介紹CNN的模型原理、訓(xùn)練方法以及在實(shí)際應(yīng)用的效果。 一、模型原理 CNN的核心思想是通過輸入維度互相不同的樣本,通過卷積、
    的頭像 發(fā)表于 08-21 17:11 ?1371次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)模型的優(yōu)缺點(diǎn)

    等領(lǐng)域中非常流行,可用于分類、分割、檢測等任務(wù)。而在實(shí)際應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)模型有其優(yōu)點(diǎn)和缺點(diǎn)。這篇文章將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)模型的特點(diǎn)、優(yōu)
    的頭像 發(fā)表于 08-21 17:15 ?5018次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,由多層卷積層和
    的頭像 發(fā)表于 07-03 09:28 ?876次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)層的作用

    在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)以其卓越的圖像處理和計(jì)算機(jī)視覺能力而廣受歡迎。CNN由多個層組成,其中包括卷積層、
    的頭像 發(fā)表于 07-03 15:58 ?2223次閱讀

    神經(jīng)網(wǎng)絡(luò)卷積層、層與全連接層

    在深度學(xué)習(xí),卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種特別適用于處理圖像數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過
    的頭像 發(fā)表于 07-11 14:18 ?7842次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本概念、原理及特點(diǎn)

    的基本概念、原理、特點(diǎn)以及在不同領(lǐng)域的應(yīng)用情況。 一、卷積神經(jīng)網(wǎng)絡(luò)的基本概念 卷積神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)算法,它由多層卷積層和
    的頭像 發(fā)表于 07-11 14:38 ?1655次閱讀