0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CNN中卷積都有些什么作用

Dbwd_Imgtec ? 來源:cc ? 2019-01-16 14:41 ? 次閱讀

在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)中,比如多層感知機(MLP),其輸入通常是一個特征向量。需要人工設(shè)計特征,然后將用這些特征計算的值組成特征向量。在過去幾十年的經(jīng)驗來看,人工找的特征并不總是好用。有時多了,有時少了,有時選的特征根本就不起作用(真正起作用的特征在浩瀚的未知里)。這就是為啥過去幾十年神經(jīng)網(wǎng)絡(luò)一直被SVM等完虐的原因。

如果有人說,任何特征都是從圖像中提取的。那如果把整幅圖像作為特征來訓練神經(jīng)網(wǎng)絡(luò)不就行了嘛,那肯定不會有任何的信息丟失!額,先不說一幅圖像有多少冗余信息,單說這數(shù)據(jù)量就嚇死了!

假如有一幅1000*1000的圖像,如果把整幅圖像作為向量,則向量的長度為1000000(10^6)。在假如隱含層神經(jīng)元的個數(shù)和輸入一樣,也是1000000;那么,輸入層到隱含層的參數(shù)數(shù)據(jù)量有10^12,媽呀,什么樣的機器能訓練這樣的網(wǎng)絡(luò)呢。所以,我們還得降低維數(shù),同時得以整幅圖像為輸入(人類實在找不到好的特征了)。于是,牛逼的卷積來了。接下來看看卷積都干了些啥。

局部感知:

卷積神經(jīng)網(wǎng)絡(luò)有兩種神器可以降低參數(shù)數(shù)目,第一種神器叫做局部感知野。一般認為人對外界的認知是從局部到全局的,而圖像的空間聯(lián)系也是局部的像素聯(lián)系較為緊密,而距離較遠的像素相關(guān)性則較弱。因而,每個神經(jīng)元其實沒有必要對全局圖像進行感知,只需要對局部進行感知,然后在更高層將局部的信息綜合起來就得到了全局的信息。網(wǎng)絡(luò)部分連通的思想,也是受啟發(fā)于生物學里面的視覺系統(tǒng)結(jié)構(gòu)。視覺皮層的神經(jīng)元就是局部接受信息的(即這些神經(jīng)元只響應(yīng)某些特定區(qū)域的刺激)。

如下圖所示:左圖為全連接,右圖為局部連接。

在上右圖中,假如每個神經(jīng)元只和10×10個像素值相連,那么權(quán)值數(shù)據(jù)為1000000×100個參數(shù),減少為原來的千分之一。而那10×10個像素值對應(yīng)的10×10個參數(shù),其實就相當于卷積操作。

權(quán)值共享:

但其實這樣的話參數(shù)仍然過多,那么就啟動第二級神器,即權(quán)值共享。在上面的局部連接中,每個神經(jīng)元都對應(yīng)100個參數(shù),一共1000000個神經(jīng)元,如果這1000000個神經(jīng)元的100個參數(shù)都是相等的,那么參數(shù)數(shù)目就變?yōu)?00了。

怎么理解權(quán)值共享呢?

我們可以這100個參數(shù)(也就是卷積操作)看成是提取特征的方式,該方式與位置無關(guān)。這其中隱含的原理則是:圖像的一部分的統(tǒng)計特性與其他部分是一樣的。這也意味著我們在這一部分學習的特征也能用在另一部分上,所以對于這個圖像上的所有位置,我們都能使用同樣的學習特征。

更直觀一些,當從一個大尺寸圖像中隨機選取一小塊,比如說 8×8 作為樣本,并且從這個小塊樣本中學習到了一些特征,這時我們可以把從這個 8×8 樣本中學習到的特征作為探測器,應(yīng)用到這個圖像的任意地方中去。特別是,我們可以用從 8×8 樣本中所學習到的特征跟原本的大尺寸圖像作卷積,從而對這個大尺寸圖像上的任一位置獲得一個不同特征的激活值。

如下圖所示,展示了一個3*3的卷積核在5*5的圖像上做卷積的過程。每個卷積都是一種特征提取方式,就像一個篩子,將圖像中符合條件(激活值越大越符合條件)的部分篩選出來。

多卷積核:

上面所述只有100個參數(shù)時,表明只有1個100*100的卷積核,顯然,特征提取是不充分的,我們可以添加多個卷積核,比如32個卷積核,可以學習32種特征。在有多個卷積核時,如下圖所示:

上圖右,不同顏色表明不同的卷積核。每個卷積核都會將圖像生成為另一幅圖像。比如兩個卷積核就可以將生成兩幅圖像,這兩幅圖像可以看做是一張圖像的不同的通道。如下圖所示:

池化(down-samplin):

在通過卷積獲得了特征 (features) 之后,下一步我們希望利用這些特征去做分類。理論上講,人們可以用所有提取得到的特征去訓練分類器,例如 softmax 分類器,但這樣做面臨計算量的挑戰(zhàn)。例如:對于一個 96X96 像素的圖像,假設(shè)我們已經(jīng)學習得到了400個定義在8X8輸入上的特征,每一個特征和圖像卷積都會得到一個 (96 ? 8 + 1) × (96 ? 8 + 1) = 7921 維的卷積特征,由于有 400 個特征,所以每個樣例 (example) 都會得到一個 7921 × 400 = 3,168,400 維的卷積特征向量。學習一個擁有超過 3 百萬特征輸入的分類器十分不便,并且容易出現(xiàn)過擬合 (over-fitting)。

為了解決這個問題,首先回憶一下,我們之所以決定使用卷積后的特征是因為圖像具有一種“靜態(tài)性”的屬性,這也就意味著在一個圖像區(qū)域有用的特征極有可能在另一個區(qū)域同樣適用。因此,為了描述大的圖像,一個很自然的想法就是對不同位置的特征進行聚合統(tǒng)計,例如,人們可以計算圖像一個區(qū)域上的某個特定特征的平均值 (或最大值)。這些概要統(tǒng)計特征不僅具有低得多的維度 (相比使用所有提取得到的特征),同時還會改善結(jié)果(不容易過擬合)。這種聚合的操作就叫做池化 (pooling),有時也稱為平均池化或者最大池化 (取決于計算池化的方法)。

多卷積層:

在實際應(yīng)用中,往往使用多層卷積,然后再使用全連接層進行訓練,多層卷積的目的是一層卷積學到的特征往往是局部的,層數(shù)越高,學到的特征就越全局化。

到此,基本上就把CNN中的卷積說全了!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4776

    瀏覽量

    100948
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    353

    瀏覽量

    22265

原文標題:CNN中卷積的意義

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    圖像分割與語義分割CNN模型綜述

    圖像分割與語義分割是計算機視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο蟆?b class='flag-5'>卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學習的一種核心模型,在圖像分割與語義分割中發(fā)揮著至關(guān)重要的作用。本文將從
    的頭像 發(fā)表于 07-09 11:51 ?1053次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的卷積操作

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN卷積操作是其核心組成部分,對于圖像識別、語音識別、自然語言處理等領(lǐng)域具有重要意義。本文將從
    的頭像 發(fā)表于 07-04 16:10 ?1554次閱讀

    如何利用CNN實現(xiàn)圖像識別

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學習領(lǐng)域中一種特別適用于圖像識別任務(wù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過模擬人類視覺系統(tǒng)的處理方式,利用卷積、池化等操作,自動提取圖像的特征,進而實現(xiàn)高效的圖像識別。本
    的頭像 發(fā)表于 07-03 16:16 ?1459次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)池化層的作用

    。其中,池化層(Pooling Layer)作為CNN的重要組成部分,在降低模型復(fù)雜度、提高計算效率以及增強模型的不變性和魯棒性方面發(fā)揮著關(guān)鍵作用。本文將從多個方面深入探討池化層的作用,力求全面解析其在
    的頭像 發(fā)表于 07-03 15:58 ?1921次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)示例

    分類。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積層(Convolutional Layer) 卷積層是CNN的核心組件,用于提取圖像特征
    的頭像 發(fā)表于 07-03 10:51 ?480次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的組成部分有哪些

    卷積層、池化層、激活函數(shù)、全連接層、損失函數(shù)、優(yōu)化算法等,并探討它們在CNN作用和應(yīng)用。 卷積層(Convolutional Layer
    的頭像 發(fā)表于 07-03 09:31 ?1135次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學習模型,廣泛應(yīng)用于圖像分類、目標檢測、語義分割等領(lǐng)域。本文將詳細介紹CNN在分類任務(wù)的應(yīng)用,包括基本結(jié)構(gòu)、關(guān)鍵技術(shù)、常見網(wǎng)絡(luò)架構(gòu)以及實際應(yīng)用案例。
    的頭像 發(fā)表于 07-03 09:28 ?670次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)三大特點是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。CNN具有以下三大特點: 局部連接
    的頭像 發(fā)表于 07-03 09:26 ?1447次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理和應(yīng)用范圍

    和應(yīng)用范圍。 一、卷積神經(jīng)網(wǎng)絡(luò)的基本原理 1. 卷積層(Convolutional Layer) 卷積層是CNN的核心組成部分,其主要功能是提取圖像
    的頭像 發(fā)表于 07-02 15:30 ?1298次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)每一層的作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學習算法,廣泛應(yīng)用于圖像識別、自然語言處理等領(lǐng)域。本文將詳細介紹卷積神經(jīng)網(wǎng)絡(luò)每一層的作用
    的頭像 發(fā)表于 07-02 15:28 ?1693次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓練過程及應(yīng)用領(lǐng)域

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。CNN模型的核心是卷積
    的頭像 發(fā)表于 07-02 15:26 ?3910次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn模型有哪些

    (Convolutional Layer) 卷積層是CNN的核心,用于提取圖像的局部特征。卷積操作通過滑動窗口(濾波器或卷積核)在輸入數(shù)據(jù)上進行計算,生成特征圖(Feature Map
    的頭像 發(fā)表于 07-02 15:24 ?765次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn池化層的主要作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學習領(lǐng)域中一種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。在CNN,池
    的頭像 發(fā)表于 07-02 14:50 ?1326次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的各個層次及其作用

    。本文將詳細介紹卷積神經(jīng)網(wǎng)絡(luò)的各個層次及其作用。 輸入層(Input Layer) 輸入層是CNN的第一層,負責接收輸入數(shù)據(jù)。對于圖像數(shù)據(jù),輸入層通常是一個二維數(shù)組,表示圖像的寬度、高度和顏色通道。例如,對于一個具有3個顏色通道
    的頭像 發(fā)表于 07-02 14:47 ?2187次閱讀

    基于Python和深度學習的CNN原理詳解

    卷積神經(jīng)網(wǎng)絡(luò) (CNN) 由各種類型的層組成,這些層協(xié)同工作以從輸入數(shù)據(jù)中學習分層表示。每個層在整體架構(gòu)中都發(fā)揮著獨特的作用。
    的頭像 發(fā)表于 04-06 05:51 ?2214次閱讀
    基于Python和深度學習的<b class='flag-5'>CNN</b>原理詳解