0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡概述及Python實現(xiàn)

CHANBAEK ? 來源:網(wǎng)絡整理 ? 2024-07-04 14:22 ? 次閱讀

一、卷積神經(jīng)網(wǎng)絡概述

卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks, CNN)是一類包含卷積計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(Feedforward Neural Networks),是深度學習(deep learning)的代表算法之一。CNN通過模擬生物的視知覺機制,能夠有效地處理具有網(wǎng)格狀拓撲結(jié)構(gòu)的數(shù)據(jù),如圖像、聲音等,并在計算機視覺、自然語言處理等領(lǐng)域取得了顯著成果。

1. 歷史與發(fā)展

CNN的研究可追溯至二十世紀80至90年代。日本學者福島邦彥(Kunihiko Fukushima)在1979年和1980年提出了neocognitron模型,這是最早被提出的深度學習算法之一,其隱含層由S層(Simple-layer)和C層(Complex-layer)交替構(gòu)成,部分實現(xiàn)了CNN中卷積層和池化層的功能。隨后,時間延遲網(wǎng)絡(Time Delay Neural Network, TDNN)和平移不變?nèi)斯ど窠?jīng)網(wǎng)絡(SIANN)等早期CNN模型相繼被提出,但這些模型的應用受限于當時的計算能力和數(shù)據(jù)量。

1998年,紐約大學的Yann LeCun及其合作者構(gòu)建了更加完備的卷積神經(jīng)網(wǎng)絡LeNet-5,并在手寫數(shù)字的識別問題中取得成功。LeNet-5的成功得益于其采用的局部連接和權(quán)值共享的方式,這些方式有效減少了權(quán)值的數(shù)量,降低了模型的復雜度和過擬合的風險。此后,隨著深度學習理論的提出和數(shù)值計算設備的改進,CNN得到了快速發(fā)展,并被廣泛應用于各種領(lǐng)域。

2. 基本結(jié)構(gòu)與原理

CNN的基本結(jié)構(gòu)通常包括輸入層、卷積層、池化層、全連接層和輸出層。

  • 輸入層 :接收原始數(shù)據(jù),如圖像。對于圖像而言,輸入層的數(shù)據(jù)通常是三維的,即圖像的寬度、高度和顏色通道數(shù)(如RGB圖像的通道數(shù)為3)。
  • 卷積層 :通過卷積運算提取輸入數(shù)據(jù)的特征。卷積層中的每個神經(jīng)元都與前一層的一個局部區(qū)域相連,這個局部區(qū)域被稱為感受野。卷積層通過多個卷積核(或稱為濾波器)對輸入數(shù)據(jù)進行卷積運算,生成多個特征圖(feature map)。每個卷積核都代表一種特征提取方式,通過不同的卷積核可以提取到輸入數(shù)據(jù)的不同特征。
  • 池化層 :對卷積層輸出的特征圖進行下采樣操作,以減少數(shù)據(jù)的空間維度和計算量,同時保留重要特征。常用的池化操作有最大池化(Max Pooling)和平均池化(Average Pooling)等。
  • 全連接層 :將池化層輸出的特征圖展平為一維向量,并通過全連接的方式與下一層的神經(jīng)元相連。全連接層通常位于CNN的末尾,用于對提取到的特征進行分類或回歸等操作。
  • 輸出層 :輸出最終的結(jié)果。對于分類任務而言,輸出層通常使用softmax函數(shù)將輸出轉(zhuǎn)換為概率分布形式,以表示每個類別的預測概率。

CNN的核心在于其局部連接和權(quán)值共享的特性。局部連接意味著每個神經(jīng)元只與前一層的局部區(qū)域相連,這符合生物視覺系統(tǒng)的特性;權(quán)值共享則意味著同一個卷積核在處理不同位置的數(shù)據(jù)時使用的是相同的權(quán)重,這有效減少了模型的參數(shù)數(shù)量,降低了模型的復雜度。

3. 關(guān)鍵技術(shù)

CNN中的關(guān)鍵技術(shù)包括卷積運算、池化操作、激活函數(shù)和反向傳播算法等。

  • 卷積運算 :是CNN中最基本的操作之一,通過卷積核與輸入數(shù)據(jù)的局部區(qū)域進行卷積運算來提取特征。卷積運算具有平移不變性,即無論輸入數(shù)據(jù)中的特征出現(xiàn)在什么位置,卷積運算都能有效地提取到這些特征。
  • 池化操作 :用于對卷積層輸出的特征圖進行下采樣操作,以減少數(shù)據(jù)的空間維度和計算量。池化操作通常具有局部平移不變性,即無論特征在特征圖中的具體位置如何變化,池化操作都能保留這些特征的重要信息
  • 激活函數(shù) :用于增加CNN的非線性能力。常用的激活函數(shù)有ReLU(Rectified Linear Unit)、sigmoid和tanh等。激活函數(shù)的作用是將卷積層或全連接層的輸出映射到一個非線性空間上,使得CNN能夠?qū)W習更加復雜的特征表示。
  • 反向傳播算法 :是訓練CNN的關(guān)鍵算法之一。通過反向傳播算法可以計算網(wǎng)絡中每個參數(shù)的梯度,并根據(jù)梯度更新網(wǎng)絡的參數(shù)以最小化損失函數(shù)。反向傳播算法的實現(xiàn)依賴于鏈式法則和梯度下降等優(yōu)化算法。
4. 應用領(lǐng)域

CNN在計算機視覺、自然語言處理、語音識別等領(lǐng)域都有廣泛的應用。在計算機視覺領(lǐng)域,CNN被用于圖像分類、目標檢測、圖像分割、人臉識別等任務;在自然語言處理領(lǐng)域,CNN被用于文本分類、情感分析、機器翻譯等任務;在語音識別領(lǐng)域,CNN被用于語音特征提取和語音識別等任務。

二、Python實現(xiàn)卷積神經(jīng)網(wǎng)絡

在Python中,實現(xiàn)卷積神經(jīng)網(wǎng)絡最常用的是TensorFlow和PyTorch這兩個深度學習框架。下面我將以TensorFlow為例,介紹如何使用TensorFlow的高級API Keras來構(gòu)建一個簡單的卷積神經(jīng)網(wǎng)絡模型,用于圖像分類任務。

1. 環(huán)境準備

首先,確保你已經(jīng)安裝了TensorFlow。如果未安裝,可以通過pip命令進行安裝:

pip install tensorflow
2. 導入必要的庫
import tensorflow as tf  
from tensorflow.keras import layers, models  
from tensorflow.keras.datasets import cifar10  
from tensorflow.keras.utils import to_categorical

這里我們使用了CIFAR-10數(shù)據(jù)集,它是一個包含60000張32x32彩色圖片的數(shù)據(jù)集,共有10個類別,每個類別包含6000張圖片。

3. 加載和預處理數(shù)據(jù)
# 加載CIFAR-10數(shù)據(jù)集  
(train_images, train_labels), (test_images, test_labels) = cifar10.load_data()  
  
# 歸一化數(shù)據(jù)(將像素值從[0, 255]縮放到[0, 1])  
train_images, test_images = train_images / 255.0, test_images / 255.0  
  
# 將標簽轉(zhuǎn)換為獨熱編碼形式  
train_labels = to_categorical(train_labels, 10)  
test_labels = to_categorical(test_labels, 10)
4. 構(gòu)建卷積神經(jīng)網(wǎng)絡模型
# 構(gòu)建模型  
model = models.Sequential()  
# 添加卷積層和ReLU激活函數(shù)  
model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(32, 32, 3)))  
# 添加池化層  
model.add(layers.MaxPooling2D((2, 2)))  
# 可以添加更多的卷積層和池化層來加深網(wǎng)絡  
model.add(layers.Conv2D(64, (3, 3), activation='relu'))  
model.add(layers.MaxPooling2D((2, 2)))  
model.add(layers.Conv2D(64, (3, 3), activation='relu'))  
# 將特征圖展平為一維向量  
model.add(layers.Flatten())  
# 添加全連接層和ReLU激活函數(shù)  
model.add(layers.Dense(64, activation='relu'))  
# 添加輸出層,使用softmax激活函數(shù)進行多分類  
model.add(layers.Dense(10, activation='softmax'))  
  
# 編譯模型  
model.compile(optimizer='adam',  
              loss='categorical_crossentropy',  
              metrics=['accuracy'])
5. 訓練模型
# 訓練模型  
model.fit(train_images, train_labels, epochs=10,   
          validation_data=(test_images, test_labels))

這里,epochs表示整個數(shù)據(jù)集將被遍歷和學習的次數(shù)。validation_data用于在每個epoch結(jié)束時評估模型在未見過的測試數(shù)據(jù)上的性能。

6. 評估模型
# 評估模型在測試集上的性能  
test_loss, test_acc = model.evaluate(test_images,  test_labels, verbose=2)  
print('nTest accuracy:', test_acc)
7. 使用模型進行預測
# 使用模型進行預測  
predictions = model.predict(test_images)  
  
# 預測結(jié)果的前5個示例  
for i in range(5):  
    print(f'Predicted: {np.argmax(predictions[i])}, Actual: {np.argmax(test_labels[i])}')

這段代碼將輸出測試集中前5個圖像的預測類別和實際類別。

8. 模型保存與加載
# 保存模型  
model.save('cifar10_cnn_model.h5')  
  
# 加載模型  
loaded_model = models.load_model('cifar10_cnn_model.h5')

通過以上步驟,我們可以使用TensorFlow的Keras API構(gòu)建、訓練、評估和保存一個簡單的卷積神經(jīng)網(wǎng)絡模型。當然,這只是一個基礎示例,實際應用中可能需要更復雜的網(wǎng)絡結(jié)構(gòu)、更多的數(shù)據(jù)預處理步驟以及更精細的超參數(shù)調(diào)整。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4797

    瀏覽量

    84689
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5503

    瀏覽量

    121162
  • 卷積神經(jīng)網(wǎng)絡

    關(guān)注

    4

    文章

    367

    瀏覽量

    11865
收藏 人收藏

    評論

    相關(guān)推薦

    使用Python卷積神經(jīng)網(wǎng)絡(CNN)進行圖像識別的基本步驟

    Python 卷積神經(jīng)網(wǎng)絡(CNN)在圖像識別領(lǐng)域具有廣泛的應用。通過使用卷積神經(jīng)網(wǎng)絡,我們可以讓計算機從圖像中學習特征,從而
    的頭像 發(fā)表于 11-20 11:20 ?6185次閱讀

    全連接神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡的區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經(jīng)網(wǎng)絡如何使用

    卷積神經(jīng)網(wǎng)絡(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    什么是圖卷積神經(jīng)網(wǎng)絡?

    卷積神經(jīng)網(wǎng)絡
    發(fā)表于 08-20 12:05

    卷積神經(jīng)網(wǎng)絡的優(yōu)點是什么

    卷積神經(jīng)網(wǎng)絡的優(yōu)點
    發(fā)表于 05-05 18:12

    卷積神經(jīng)網(wǎng)絡一維卷積的處理過程

    。本文就以一維卷積神經(jīng)網(wǎng)絡為例談談怎么來進一步優(yōu)化卷積神經(jīng)網(wǎng)絡使用的memory。文章(卷積神經(jīng)網(wǎng)絡
    發(fā)表于 12-23 06:16

    卷積神經(jīng)網(wǎng)絡模型發(fā)展及應用

    卷積神經(jīng)網(wǎng)絡模型發(fā)展及應用轉(zhuǎn)載****地址:http://fcst.ceaj.org/CN/abstract/abstract2521.shtml深度學習是機器學習和人工智能研究的最新趨勢,作為一個
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡python代碼

    卷積操作,將不同層次的特征進行提取,從而通過反向傳播算法不斷優(yōu)化網(wǎng)絡權(quán)重,最終實現(xiàn)分類和預測等任務。 在本文中,我們將介紹如何使用Python實現(xiàn)
    的頭像 發(fā)表于 08-21 16:41 ?1031次閱讀

    卷積神經(jīng)網(wǎng)絡概述 卷積神經(jīng)網(wǎng)絡的特點 cnn卷積神經(jīng)網(wǎng)絡的優(yōu)點

    卷積神經(jīng)網(wǎng)絡概述 卷積神經(jīng)網(wǎng)絡的特點 cnn卷積神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 08-21 16:41 ?2980次閱讀

    卷積神經(jīng)網(wǎng)絡的工作原理 卷積神經(jīng)網(wǎng)絡通俗解釋

    。CNN可以幫助人們實現(xiàn)許多有趣的任務,如圖像分類、物體檢測、語音識別、自然語言處理和視頻分析等。本文將詳細介紹卷積神經(jīng)網(wǎng)絡的工作原理并用通俗易懂的語言解釋。 1.概述
    的頭像 發(fā)表于 08-21 16:49 ?3757次閱讀

    卷積神經(jīng)網(wǎng)絡層級結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡卷積層講解

    像分類、目標檢測、人臉識別等。卷積神經(jīng)網(wǎng)絡的核心是卷積層和池化層,它們構(gòu)成了網(wǎng)絡的主干,實現(xiàn)了對圖像特征的提取和抽象。 一、
    的頭像 發(fā)表于 08-21 16:49 ?8769次閱讀

    卷積神經(jīng)網(wǎng)絡的介紹 什么是卷積神經(jīng)網(wǎng)絡算法

    卷積神經(jīng)網(wǎng)絡的介紹 什么是卷積神經(jīng)網(wǎng)絡算法 卷積神經(jīng)網(wǎng)絡涉及的關(guān)鍵技術(shù)
    的頭像 發(fā)表于 08-21 16:49 ?1879次閱讀

    卷積神經(jīng)網(wǎng)絡算法代碼python

    卷積神經(jīng)網(wǎng)絡算法代碼python? 卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)是深度學習中最為重要的算
    的頭像 發(fā)表于 08-21 16:50 ?2118次閱讀

    卷積神經(jīng)網(wǎng)絡的原理與實現(xiàn)

    1.卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。 卷積神經(jīng)網(wǎng)絡是一種前饋
    的頭像 發(fā)表于 07-02 16:47 ?576次閱讀

    卷積神經(jīng)網(wǎng)絡實現(xiàn)原理

    卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細介紹卷積神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-03 10:49 ?551次閱讀