在很多人眼里,深度學習是一個非常神奇的技術(shù),是人工智能的未來,是機器學習的圣杯。今天深視創(chuàng)新帶您一起揭開他神秘的面紗,了解什么才是深度學習。
當我們在網(wǎng)絡(luò)上搜索“深度學習”的時候往往還能搜到“人工智能”以及“機器學習”這兩個關(guān)鍵詞。有很多人甚至認為深度學習就是人工智能,其實這些概念之間還是有一些區(qū)別的。因此,在介紹它的工作原理之前,為了讓大家更好的了解深度學習,我們先來介紹一下這幾個概念之間的區(qū)別和聯(lián)系。
人工智能到目前為止還只是一個概念。它是由麻省理工學院的約翰·麥卡錫于1956年在達特矛斯會議上提出的。在會上人們把人工智能定義為一門可以讓機器的行為看起來像人一樣智能的技術(shù),但是至今為止我們還沒能實現(xiàn)這個夢想。伴隨著隨著計算機技術(shù)的發(fā)展以及學者們不斷的探索,雖然我們目前無法實現(xiàn)理想中的人工智能,但已經(jīng)找到了一些實現(xiàn)它的途徑,那就是機器學習。機器學習不同于我們之前提到的理想中的人工智能。它可以使機器具有一定的決策能力。它是一種對已知數(shù)據(jù)進行學習和分類的分類器。有人認為這并不是真正的智能,于是人們把理想中的人工智能稱為強人工智能,而相對的把機器學習稱為弱人工智能。我們現(xiàn)在耳熟能詳?shù)纳疃葘W習則是一種實現(xiàn)機器學習的算法。所以從算法的角度上來說深度學習只是一個分類器而已。
深度學習的核心算法是CNN神經(jīng)網(wǎng)絡(luò),即卷積神經(jīng)網(wǎng)絡(luò)。這個網(wǎng)絡(luò)早在1989年就已經(jīng)問世了,最初人們用它解決手寫字符的識別問題,但是受限于當時計算機的硬件水平,其處理速度較慢,并沒有推廣到其他應用領(lǐng)域。1999年GPU的問世為卷積神經(jīng)網(wǎng)絡(luò)重回歷史舞臺提供了良好的條件。借助GPU高效的處理能力,卷積神經(jīng)網(wǎng)絡(luò)算法開始走向應用。它優(yōu)秀的分類能力逐漸被各個應用領(lǐng)域所認可。而當Alpha Go戰(zhàn)勝了圍棋冠軍李世石以后,人們對深度學習技術(shù)的期望更是達到了頂峰。但是我相信,很快人們就會發(fā)現(xiàn)深度學習只是我們目前掌握的一種新的非線性分類器。它和其他分類器一樣都需要通過訓練才能夠?qū)崿F(xiàn)分類的功能。比如通過水果圖像的訓練,它就可以幫助我們判斷圖像中水果的種類。
作為一個機器學習的分類器,深度學習在很多特征模糊的分類領(lǐng)域均有不錯的表現(xiàn),比如在自動駕駛和照片分類等應用領(lǐng)域。相比于其他的分類器,深度學習不僅可以對圖像的特征進行分類,還可以通過訓練對圖像中的特征進行學習。這種特性對于一些特征不易描述的圖像分類任務(wù)是大有裨益的。
是什么給了深度學習如此大的神通呢?這就要從它所特有的卷積神經(jīng)網(wǎng)絡(luò)說起了。
常用邊緣提取卷積算法。
卷積是一種積分變換的數(shù)學方法,在圖像處理中應用廣泛。很多我們常用的圖像濾波器都是通過卷積實現(xiàn)的。比如使用3x3所有元素全為1的卷積核對圖像進行運算后可以去除圖像噪聲,突顯圖像整體特征。又比如使用高斯核對圖像進行運算可以在保留邊緣的情況下對圖像噪聲進行抑制。此外許多我們熟知的邊緣提取算法也是由特定卷積核實現(xiàn)的,如canny,sobel,Laplace等。由此我們不難看出,不同的卷積核可以幫我們強化圖像中不同的特征。但是如何選擇正確的卷積核卻是一件非常困難的事情,需要擁有豐富圖像處理經(jīng)驗的程序員才能辦到。而深度學習最大優(yōu)勢就在于可通過權(quán)值訓練的方式對卷積核進行訓練。
輸入圖像經(jīng)過卷積、池化,再卷積再池化的過程,最后將所有圖像數(shù)據(jù)轉(zhuǎn)化為特征向量并輸入到全連接層獲得最終的分類結(jié)果。
一個卷積神經(jīng)網(wǎng)絡(luò)可以擁有多個卷積層,不同的卷積層可以設(shè)置不同的卷積核尺寸和數(shù)目。通過卷積,我們可以生成一組特征圖像供后續(xù)算法使用。與圖像濾波處理不同的是,卷積核中的每一個元素并非人為指定,而是通過計算獲得。在這里我們將卷積核中的每個元素作為網(wǎng)絡(luò)的權(quán)值,并通過訓練逐步修改它們。理論上來說,我們可以把圖像上的每個像素都作為一個特征值直接輸入到全連接層中,但是,那樣會導致神經(jīng)網(wǎng)絡(luò)太過復雜。于是我們采用卷積層這種共享權(quán)值的方式簡化我們的網(wǎng)絡(luò)。我們所說的權(quán)值共享,并不是指同一個卷積核中所有權(quán)值都相同,而是說在對整張圖像進行卷積的過程中卷積核是不變的,圖像中所有像素都享有相同卷積核權(quán)值。通過權(quán)值共享,可以降低網(wǎng)絡(luò)的訓練負擔,縮短分類時間,使網(wǎng)絡(luò)更加實用。
一般,在卷積層的后面都會緊跟著一個池化層。在池化層中,特征圖像會被降采樣。降采樣的方法也有很多,比如選取指定范圍內(nèi)數(shù)值最大的特征或者使用該范圍所有特征的平均值作為新特征圖的特征值。
池化層可以幫助我們減少后續(xù)特征圖像的運算量。此外,采樣處理相當于變相縮小圖像,這也使得在后續(xù)的卷積層中對圖像概況訓練成為可能。例如,在較淺的網(wǎng)絡(luò)中我們可以訓練出類似sobel的檢測指定邊緣方向的卷積核,而在較深層則能夠訓練出凸顯折線或者其他形狀的卷積核。
在經(jīng)過一系列的卷積層和池化層后,特征數(shù)據(jù)會被送入全連接層進行分類。全連接層是一種被稱為多層感知器(MLP)的非線性分類器。它具有很好的非線性分類能力。拋開深度學習技術(shù)不談,這種分類器也可以單獨使用,只不過輸入的特征需要人為提取,而不像卷積神經(jīng)網(wǎng)絡(luò)中由前面的網(wǎng)絡(luò)計算獲得。通過全連接層的分類,我們最終可以獲得樣本被分為所有類別的概率,統(tǒng)計這些概率,我們就可以獲得最終的分類結(jié)果。
通過上文的介紹,相信大家對卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)已經(jīng)有了一定的了解。從網(wǎng)絡(luò)的結(jié)構(gòu)上我們不難看出,卷積神經(jīng)網(wǎng)絡(luò)非常適合進行模糊特征的分類,而合理的網(wǎng)絡(luò)結(jié)構(gòu)以及合適的參數(shù)是網(wǎng)絡(luò)能否成功分類的關(guān)鍵。如果你想自己搭建網(wǎng)絡(luò),就要了解網(wǎng)絡(luò)中各層的用途以及相互作用關(guān)系,這需要一定的數(shù)學功底。當然從應用角度上來講,我們可以直接使用別人搭建好的網(wǎng)絡(luò)或者算法庫,已縮短我們的研發(fā)周期。
文章來源:深視創(chuàng)新
審核編輯:劉清
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4776瀏覽量
100945 -
機器視覺
+關(guān)注
關(guān)注
162文章
4396瀏覽量
120483 -
人工智能
+關(guān)注
關(guān)注
1792文章
47497瀏覽量
239189 -
深度學習
+關(guān)注
關(guān)注
73文章
5510瀏覽量
121334
原文標題:深度學習算法和傳統(tǒng)機器視覺結(jié)合,助力工業(yè)外觀檢測
文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論