0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

jmiy_worldofai ? 作者:易水寒 ? 2018-04-02 09:47 ? 次閱讀

概述

深度學(xué)習(xí)人工智能是 2017 年的熱詞;2018 年,這兩個詞愈發(fā)火熱,但也更加容易混淆。我們將深入深度學(xué)習(xí)的核心,也就是神經(jīng)網(wǎng)絡(luò)。大多數(shù)神經(jīng)網(wǎng)絡(luò)的變體是難以理解的,并且它們的底層結(jié)構(gòu)組件使得它們在理論上和圖形上是一樣的。

下圖展示了最流行的神經(jīng)網(wǎng)絡(luò)變體。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

本文介紹卷積神經(jīng)網(wǎng)絡(luò)(CNN)。在開始之前,我們首先了解一下感知機。神經(jīng)網(wǎng)絡(luò)是一些被稱作感知機的單元的集合,感知機是二元線性分類器。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

如上圖所示,輸入 x1 和 x2 分別和各自的權(quán)重 w1 和 w2 相乘、求和,所以函數(shù) f=x1*w1+x2*w2+b(偏置項,可以選擇性地添加)。函數(shù) f 可以是任意的運算,但是對于感知機而言通常是求和。函數(shù) f 隨后會通過一個激活函數(shù)來評估,該激活函數(shù)能夠?qū)崿F(xiàn)期望分類。Sigmoid 函數(shù)是用于二元分類的最常見的激活函數(shù)。如果您想進一步了解感知機,推薦閱讀這篇文章(https://appliedgo.net/perceptron/)。

如果我們把多個輸入堆疊在一起,并且使用函數(shù) f 將其與位于另一層的多個堆疊在一起的單元連接在一起,這就形成了多個全連接的感知機,這些單元(隱藏層)的輸出成為最后一個單元的輸入,再通過函數(shù) f 和激活函數(shù)得到最終的分類。如下圖所示,這個就是最簡單的神經(jīng)網(wǎng)絡(luò)。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)有一個獨特的能力,被稱作「泛逼近函數(shù)」(Universal Approximation function),所以神經(jīng)網(wǎng)絡(luò)的拓撲和結(jié)構(gòu)變體是很多樣化的。這本身就是一個很大的話題,Michael Nielsen 在文章中做了詳細的描述(http://neuralnetworksanddeeplearning.com/chap4.html)。讀完這個我們可以相信:神經(jīng)網(wǎng)絡(luò)可以模擬任何函數(shù),不管它是多么的復(fù)雜。上面提到的神經(jīng)網(wǎng)絡(luò)也被稱為前饋神經(jīng)網(wǎng)絡(luò)(FFNN),因為信息流是單向、無環(huán)的。現(xiàn)在我們已經(jīng)理解了感知機和前饋神經(jīng)網(wǎng)絡(luò)的基本知識,我們可以想象,數(shù)百個輸入連接到數(shù)個這樣的隱藏層會形成一個復(fù)雜的神經(jīng)網(wǎng)絡(luò),通常被稱為深度神經(jīng)網(wǎng)絡(luò)或者深度前饋神經(jīng)網(wǎng)絡(luò)。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

那么深度神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么不同呢?讓我們來探討一下。

CNN 由于被應(yīng)用在 ImageNet 等競賽中而廣受歡迎,最近也被應(yīng)用在自然語言處理和語音識別中。需要記住的關(guān)鍵點是,其他的變體,如 RNN、LSTM、GRU 等,基于和 CNN 類似的結(jié)構(gòu),不過架構(gòu)存在一些差異。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

CNN 由三種不同的層組成,即「卷積層」、「池化層」、「密集層或全連接層」。我們之前的神經(jīng)網(wǎng)絡(luò)都是典型的全連接層神經(jīng)網(wǎng)絡(luò)。如果想了解更多卷積和池化層的知識,可以閱讀 Andrej Karpathy 的解釋(https://cs231n.github.io/convolutional-networks/)。現(xiàn)在繼續(xù)我們關(guān)于層的討論,下面我們來看一下卷積層。

(在下面的內(nèi)容里,我們會以圖像分類為例來理解卷積神經(jīng)網(wǎng)絡(luò),后面再轉(zhuǎn)移到自然語言處理和視頻任務(wù)中。)

卷積層:假設(shè)一張圖像有 5*5 個像素,1 代表白,0 代表黑,這幅圖像被視為 5*5 的單色圖像?,F(xiàn)在用一個由隨機地 0 和 1 組成的 3*3 矩陣去和圖像中的子區(qū)域做乘法,每次迭代移動一個像素,這樣該乘法會得到一個新的 3*3 的矩陣。下面的動圖展示了這個過程。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

上述的 3*3 的矩陣被稱作「濾波器」,它的任務(wù)是提取圖像特征,它使用「優(yōu)化算法」來決定 3*3 矩陣中具體的 0 和 1。我們在神經(jīng)網(wǎng)絡(luò)的卷積層中使用好幾個這樣的濾波器來提取多個特征。3*3 矩陣的每一個單個步驟被稱作「步幅」(stride)。

下圖展示了使用兩個三通道濾波器從三通道(RGB)圖像中生成兩個卷積輸出的詳細過程。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

濾波器 w0 和 w1 是「卷積」,輸出是提取到的特征,包含這些濾波器的層叫做卷積層。

池化層:這個層主要使用不同的函數(shù)為輸入降維。通常,最大池化層(max-pooling layer)出現(xiàn)在卷積層之后。池化層使用 2*2 的矩陣,以卷積層相同的方式處理圖像,不過它是給圖像本身降維。下面分別是使用「最大池化」和「平均池化」的示例。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

全連接層:這個層是位于之前一層和激活函數(shù)之間的全連接層。它和之前討論過的簡單「神經(jīng)網(wǎng)絡(luò)」是類似的。

注意:卷積神經(jīng)網(wǎng)絡(luò)結(jié)果也會使用正則化層,不過本文將分開討論。此外,池化層會損失信息,所以也不是首選的。通常的做法是在卷機層中使用一個較大的步幅。

ILSVRC 2014 的亞軍 VGGNet 是一個流行的卷積神經(jīng)網(wǎng)絡(luò),它使用 16 個層來幫助我們理解 CNN 中深度的重要性,AlexNet 是 ILSVRC 2012 的冠軍,它只有 8 層。Keras 中有可以直接使用的模型 VGG-16。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

在 Keras 中加載了這個模型之后,我們可以觀察每一層的「output shape」來理解張量維度,觀察「Param#」來了解如何計算參數(shù)來得到卷積特征?!窹aram#」是每一次獲取卷積特征時的所有權(quán)重更新。

帶你了解深入深度學(xué)習(xí)的核心:神經(jīng)網(wǎng)絡(luò)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:掃盲 | 一文看懂卷積神經(jīng)網(wǎng)絡(luò)

文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時代,錯綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進人們的視線
    的頭像 發(fā)表于 01-11 10:51 ?2053次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    從AlexNet到MobileNet,帶你入門深度神經(jīng)網(wǎng)絡(luò)

    俊楠分享了典型模式-深度神經(jīng)網(wǎng)絡(luò)入門。本文詳細介紹了關(guān)于深度神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程,并詳細介紹了各個階段模型的結(jié)構(gòu)及特點。直播回顧請點擊以下是精彩視頻內(nèi)容整理:問題引出
    發(fā)表于 05-08 15:57

    神經(jīng)網(wǎng)絡(luò)資料

    基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法
    發(fā)表于 05-16 17:25

    卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實例探究及學(xué)習(xí)總結(jié)

    深度學(xué)習(xí)工程師-吳恩達》03卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實例探究 學(xué)習(xí)總結(jié)
    發(fā)表于 05-22 17:15

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實踐

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實踐
    發(fā)表于 06-14 22:21

    深度神經(jīng)網(wǎng)絡(luò)是什么

    多層感知機 深度神經(jīng)網(wǎng)絡(luò)in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)》講義

    神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)》講義
    發(fā)表于 07-20 08:58 ?0次下載

    詳細解析神經(jīng)網(wǎng)絡(luò)的含義、挑戰(zhàn)、類型、應(yīng)用

    Statsbot深度學(xué)習(xí)開發(fā)者Jay Shah帶你入門神經(jīng)網(wǎng)絡(luò),一起了解自動編碼器、卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 01-15 17:11 ?9354次閱讀

    快速了解神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的教程資料免費下載

    本文檔的詳細介紹的是快速了解神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的教程資料免費下載主要內(nèi)容包括了:機器學(xué)習(xí)概述,線性模型,前饋
    發(fā)表于 02-11 08:00 ?33次下載
    快速<b class='flag-5'>了解</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的教程資料免費下載

    3小時學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)課件下載

    3小時學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)課件下載
    發(fā)表于 04-19 09:36 ?0次下載
    3小時<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>課件下載

    深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)和函數(shù)

    深度學(xué)習(xí)是機器學(xué)習(xí)的一個子集,它使用神經(jīng)網(wǎng)絡(luò)來執(zhí)行學(xué)習(xí)和預(yù)測。深度
    的頭像 發(fā)表于 04-07 10:17 ?1656次閱讀

    什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)

    在介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識。就目前而言,神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法的核心
    的頭像 發(fā)表于 02-23 09:14 ?3538次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)算法,其主要特點是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動調(diào)整神經(jīng)
    發(fā)表于 08-21 17:07 ?4129次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    到自然語言處理,深度學(xué)習(xí)和CNN正逐步改變著我們的生活方式。本文將深入探討深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-02 18:19 ?911次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時,我們需
    的頭像 發(fā)表于 07-04 13:20 ?874次閱讀