0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CNN中池化有什么作用

汽車玩家 ? 來源:CSDN ? 作者:cheney康 ? 2020-03-29 17:31 ? 次閱讀

1、什么是池化?

我們之所以使用卷積后的特征,是因為圖像具有“靜態(tài)型”的屬性,也就意味著在一個圖像區(qū)域的特征極有可能在另一個區(qū)域同樣適用。所以,當我們描述一個大的圖像的時候就可以對不同位置的特征進行聚合統(tǒng)計(例如:可以計算圖像一個區(qū)域上的某個特定特征的平均值 or 最大值)這種統(tǒng)計方式不僅可以降低緯度,還不容易過擬合。這種聚合統(tǒng)計的操作就稱之為池化,或平均池化、最大池化。

2、池化的作用?

(1)保留主要特征的同時減少參數(shù)(降低緯度,類似PCA)和計算量,防止過擬合

在通過卷積獲得了特征 (features) 之后,下一步用這些特征去做分類。我們可以用所有提取到的特征去訓(xùn)練分類器,但是這樣計算成本比較高。例如softmax分類器,例如:對于一個 96X96 像素的圖像,假設(shè)我們已經(jīng)學(xué)習(xí)得到了400個定義在8X8輸入上的特征,每一個特征和圖像卷積都會得到一個(96 ? 8 + 1) * (96 ? 8 + 1) = 7921維的卷積特征,由于有 400 個特征,所以每個樣例 (example) 都會得到一個892* 400 = 3,168,400維的卷積特征向量。學(xué)習(xí)一個擁有超過 3 百萬特征輸入的分類器十分不便,并且容易出現(xiàn)過擬合 (over-fitting)。

(2)invariance(不變性),這種不變性包括translation(平移),rotation(旋轉(zhuǎn)),scale(尺度)

a、 translation invariance:

這里舉一個直觀的例子(數(shù)字識別),假設(shè)有一個16x16的圖片,里面有個數(shù)字1,我們需要識別出來,這個數(shù)字1可能寫的偏左一點(圖1),這個數(shù)字1可能偏右一點(圖2),圖1到圖2相當于向右平移了一個單位,但是圖1和圖2經(jīng)過max pooling之后它們都變成了相同的8x8特征矩陣,主要的特征我們捕獲到了,同時又將問題的規(guī)模從16x16降到了8x8,而且具有平移不變性的特點。圖中的a(或b)表示,在原始圖片中的這些a(或b)位置,最終都會映射到相同的位置。

b、rotation invariance:

下圖表示漢字“一”的識別,第一張相對于x軸有傾斜角,第二張是平行于x軸,兩張圖片相當于做了旋轉(zhuǎn),經(jīng)過多次max pooling后具有相同的特征

c、 scale invariance:

下圖表示數(shù)字“0”的識別,第一張的“0”比較大,第二張的“0”進行了較小,相當于作了縮放,同樣地,經(jīng)過多次max pooling后具有相同的特征

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    152

    瀏覽量

    13183
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    352

    瀏覽量

    22217
收藏 人收藏

    評論

    相關(guān)推薦

    怎么在JAVA確定線性大小

    在JAVA確定線性大小,分別介紹CPU密集型任務(wù)和I/O密集型任務(wù)及其處理方法。
    的頭像 發(fā)表于 10-24 14:02 ?190次閱讀

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    這個小型網(wǎng)絡(luò),用于描述網(wǎng)絡(luò)的方程也具有32個偏置和32個權(quán)重。 CIFAR神經(jīng)網(wǎng)絡(luò)是一種廣泛用于圖像識別的CNN。它主要由兩種類型的層組成:卷積層和層,這兩種層分別使用卷積和
    發(fā)表于 10-24 13:56

    固態(tài)發(fā)酵窖測溫儀的作用

    在固態(tài)發(fā)酵傳統(tǒng)釀造過程,主要依靠釀酒人豐富的釀造生產(chǎn)經(jīng)驗與工藝,對窖進行發(fā)酵溫度控制;這種傳統(tǒng)發(fā)酵溫度管控方式,強度大、周期長;為滿足企業(yè)的發(fā)展需求,如何進行數(shù)智改造,以數(shù)字、
    的頭像 發(fā)表于 08-05 09:17 ?324次閱讀
    固態(tài)發(fā)酵窖<b class='flag-5'>池</b>測溫儀的<b class='flag-5'>作用</b>

    cnn常用的幾個模型哪些

    1998年提出。它主要用于手寫數(shù)字識別,包括卷積層、層和全連接層。 AlexNet:AlexNet是2012年ImageNet競賽的冠軍模型,由Alex Krizhevsky等人提出。它包含5個卷積
    的頭像 發(fā)表于 07-11 14:58 ?839次閱讀

    神經(jīng)網(wǎng)絡(luò)的卷積層、層與全連接層

    在深度學(xué)習(xí),卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種特別適用于處理圖像數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過卷積層、層和全連接層的組合,實現(xiàn)了
    的頭像 發(fā)表于 07-11 14:18 ?5742次閱讀

    圖像分割與語義分割CNN模型綜述

    圖像分割與語義分割是計算機視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο?。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像分割與語義分割中發(fā)揮著至關(guān)重要的作用。本文將從CNN模型的基本原理、在圖像分
    的頭像 發(fā)表于 07-09 11:51 ?911次閱讀

    如何利用CNN實現(xiàn)圖像識別

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)領(lǐng)域中一種特別適用于圖像識別任務(wù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過模擬人類視覺系統(tǒng)的處理方式,利用卷積、等操作,自動提取圖像的特征,進而實現(xiàn)高效的圖像識別。本
    的頭像 發(fā)表于 07-03 16:16 ?1391次閱讀

    NLP模型RNN與CNN的選擇

    在自然語言處理(NLP)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)與卷積神經(jīng)網(wǎng)絡(luò)(CNN)是兩種極為重要且廣泛應(yīng)用的網(wǎng)絡(luò)結(jié)構(gòu)。它們各自具有獨特的優(yōu)勢,適用于處理不同類型的NLP任務(wù)。本文旨在深入探討RNN與CNN
    的頭像 發(fā)表于 07-03 15:59 ?541次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)層的作用

    。其中,層(Pooling Layer)作為CNN的重要組成部分,在降低模型復(fù)雜度、提高計算效率以及增強模型的不變性和魯棒性方面發(fā)揮著關(guān)鍵作用。本文將從多個方面深入探討
    的頭像 發(fā)表于 07-03 15:58 ?1807次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的組成部分哪些

    卷積層、層、激活函數(shù)、全連接層、損失函數(shù)、優(yōu)化算法等,并探討它們在CNN作用和應(yīng)用。 卷積層(Convolutional Layer
    的頭像 發(fā)表于 07-03 09:31 ?1034次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類哪些

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,由多層卷積層和層堆疊而成。CNN通過卷積操作提取圖像特征
    的頭像 發(fā)表于 07-03 09:28 ?628次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程及應(yīng)用領(lǐng)域

    (Convolutional Layer),它通過卷積運算提取輸入數(shù)據(jù)的特征,然后通過層(Pooling Layer)和全連接層(Fully Connected Layer)進行特征的進一步處理和分類。本文將詳細介紹
    的頭像 發(fā)表于 07-02 15:26 ?3589次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn模型哪些

    (Convolutional Layer) 卷積層是CNN的核心,用于提取圖像的局部特征。卷積操作通過滑動窗口(濾波器或卷積核)在輸入數(shù)據(jù)上進行計算,生成特征圖(Feature Map)。卷積核的權(quán)重在訓(xùn)練過程
    的頭像 發(fā)表于 07-02 15:24 ?722次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn層的主要作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中一種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。在CNN,
    的頭像 發(fā)表于 07-02 14:50 ?1216次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    ,其核心是構(gòu)建具有多層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,以實現(xiàn)對復(fù)雜數(shù)據(jù)的高效表示和處理。在眾多深度學(xué)習(xí)模型,卷積神經(jīng)網(wǎng)絡(luò)(CNN)因其在圖像識別等領(lǐng)域的卓越性能而備受關(guān)注。CNN通過引入卷積層和
    的頭像 發(fā)表于 07-02 10:11 ?9750次閱讀