卷積神經(jīng)網(wǎng)絡(luò)。這聽起來(lái)像是一個(gè)奇怪的生物學(xué)和數(shù)學(xué)的結(jié)合,但是這些網(wǎng)絡(luò)已經(jīng)成為計(jì)算機(jī)視覺(jué)領(lǐng)域最具影響力的創(chuàng)新之一。2012年是神奇網(wǎng)絡(luò)成長(zhǎng)的第一年,Alex Krizhevsky用它們贏得了當(dāng)年的ImageNet競(jìng)賽(基本上是計(jì)算機(jī)視覺(jué)年度奧運(yùn)會(huì)),把分類錯(cuò)誤記錄從26%降到了15%,這個(gè)驚人的提高從那以后,許多公司一直在以服務(wù)為核心進(jìn)行深度學(xué)習(xí)。Facebook使用自動(dòng)標(biāo)記算法的神經(jīng)網(wǎng)絡(luò),谷歌的照片搜索,亞馬遜的產(chǎn)品推薦,Pinterest的家庭飼料個(gè)性化和Instagram的搜索基礎(chǔ)設(shè)施。
然而,經(jīng)典的,可以說(shuō)是最流行的,這些網(wǎng)絡(luò)的用例是用于圖像處理。在圖像處理中,讓我們來(lái)看看如何使用這些CNN進(jìn)行圖像分類。
問(wèn)題空間
圖像分類是獲取輸入圖像和輸出類(貓,狗等)或類的概率最好描述圖像的任務(wù)。對(duì)于人類來(lái)說(shuō),承認(rèn)這項(xiàng)任務(wù)是我們從出生那一刻起學(xué)到的第一個(gè)技能之一,并且是成年人自然而不費(fèi)吹灰之力的人。即使沒(méi)有兩次思考,我們也能夠快速無(wú)縫地識(shí)別我們所處的環(huán)境以及周圍的物體。當(dāng)我們看到一張圖像或者只是看著周圍的世界時(shí),大部分時(shí)間我們都能夠立刻刻畫這個(gè)場(chǎng)景,給每個(gè)對(duì)象一個(gè)標(biāo)簽,所有這些都沒(méi)有自覺(jué)地注意到。這些能夠快速識(shí)別模式的技能,從先前的知識(shí)概括,
投入和產(chǎn)出
當(dāng)一臺(tái)電腦看到一個(gè)圖像(以圖像作為輸入)時(shí),它會(huì)看到一個(gè)像素值的數(shù)組。根據(jù)圖像的分辨率和大小,它將看到一個(gè)32×32×3的數(shù)字?jǐn)?shù)組(3指的是RGB值)。為了說(shuō)明這一點(diǎn),假設(shè)我們有一個(gè)JPG格式的彩色圖像,它的大小是480 x 480.代表性的數(shù)組將是480 x 480 x 3.這些數(shù)字中的每一個(gè)都有一個(gè)從0到255的值,它描述該點(diǎn)的像素強(qiáng)度。這些數(shù)字對(duì)于我們進(jìn)行圖像分類時(shí)毫無(wú)意義,這是計(jì)算機(jī)唯一可用的輸入。這個(gè)想法是,你給計(jì)算機(jī)這個(gè)數(shù)組的數(shù)組,它會(huì)輸出的數(shù)字,描述了圖像是一個(gè)類的概率(.80為貓,.15為狗,0.05為鳥等)。
我們想要計(jì)算機(jī)做什么
現(xiàn)在我們知道這個(gè)問(wèn)題以及輸入和輸出了,我們來(lái)思考如何解決這個(gè)問(wèn)題。我們希望計(jì)算機(jī)做的是能夠區(qū)分所有的圖像,并找出使狗成為狗或使貓成為貓的獨(dú)特功能。這也是下意識(shí)地在我們的腦海中繼續(xù)的過(guò)程。當(dāng)我們看一張狗的照片時(shí),如果照片具有可識(shí)別的特征,例如爪子或四條腿,我們可以將其分類。以類似的方式,計(jì)算機(jī)能夠通過(guò)查找諸如邊緣和曲線等低級(jí)特征來(lái)執(zhí)行圖像分類,然后通過(guò)一系列卷積層來(lái)構(gòu)建更抽象的概念。這是一個(gè)CNN的一般概述。我們來(lái)詳細(xì)說(shuō)明一下。
生物連接
但首先,有一點(diǎn)背景。當(dāng)你第一次聽說(shuō)卷積神經(jīng)網(wǎng)絡(luò)這個(gè)術(shù)語(yǔ)的時(shí)候,你可能已經(jīng)想到了一些與神經(jīng)科學(xué)或生物學(xué)有關(guān)的東西,你會(huì)是對(duì)的。有點(diǎn)。CNNs確實(shí)從視覺(jué)皮層中獲得了生物啟發(fā)。視覺(jué)皮層具有對(duì)視野特定區(qū)域敏感的細(xì)胞區(qū)域。這個(gè)想法是由1962年在一個(gè)迷人的實(shí)驗(yàn)由胡貝爾和威塞爾(在擴(kuò)展視頻)在那里他們表明,大腦中的一些個(gè)體神經(jīng)元細(xì)胞只有在某個(gè)方位的邊緣存在的情況下才會(huì)響應(yīng)(或發(fā)射)。例如,一些神經(jīng)元在暴露于垂直邊緣時(shí)發(fā)射,而另一些在顯示水平或?qū)沁吘墪r(shí)發(fā)射。Hubel和Wiesel發(fā)現(xiàn),所有這些神經(jīng)元都是以柱狀結(jié)構(gòu)組織的,并且能夠產(chǎn)生視覺(jué)感知。在具有特定任務(wù)的系統(tǒng)內(nèi)部(視覺(jué)皮層中尋找特定特征的神經(jīng)元細(xì)胞)內(nèi)部的專門組件的想法也是機(jī)器使用的,并且是CNN背后的基礎(chǔ)。
結(jié)構(gòu)體
回到具體細(xì)節(jié)。有關(guān)CNN做的更詳細(xì)的概述是,您將圖像傳遞給一系列卷積,非線性,匯聚(下采樣)和完全連接的圖層,并獲得輸出。正如我們前面所說(shuō)的那樣,輸出可以是一個(gè)類或者一個(gè)最能描述圖像的類的概率?,F(xiàn)在,困難的部分是了解每個(gè)層次都做了什么。所以讓我們進(jìn)入最重要的一個(gè)。
第一層 - 數(shù)學(xué)部分
CNN中的第一層始終是一個(gè)卷積層。首先要確保你記得這個(gè)轉(zhuǎn)換(我將使用這個(gè)縮寫很多)的輸入是什么。就像我們之前提到的那樣,輸入是一個(gè)32×32×3的像素值數(shù)組。現(xiàn)在,解釋一個(gè)conv層的最好方法就是想象一個(gè)閃爍在圖像左上角的手電筒。假設(shè)這個(gè)手電筒照射的光線覆蓋了5×5的區(qū)域?,F(xiàn)在,讓我們想象這個(gè)手電筒滑過(guò)輸入圖像的所有區(qū)域。在機(jī)器學(xué)習(xí)方面,這種手電筒被稱為濾波器(有時(shí)也稱為神經(jīng)元或內(nèi)核),而它所照射的區(qū)域稱為接受場(chǎng)。現(xiàn)在這個(gè)過(guò)濾器也是一個(gè)數(shù)組數(shù)組(數(shù)字稱為權(quán)重或參數(shù))。一個(gè)非常重要的注意事項(xiàng)是,這個(gè)過(guò)濾器的深度必須和輸入的深度相同(這可以確保數(shù)學(xué)運(yùn)算出來(lái)),所以這個(gè)過(guò)濾器的尺寸是5 x 5 x 3?,F(xiàn)在,我們來(lái)看看例如過(guò)濾器的第一個(gè)位置。這將是左上角。當(dāng)濾波器在輸入圖像周圍滑動(dòng)或卷積時(shí),它將濾波器中的值與圖像的原始像素值相乘(也稱為計(jì)算元素智能乘法)。所有這些乘法都被總結(jié)出來(lái)(從數(shù)學(xué)上講,這將是總共75次乘法)。所以,現(xiàn)在你有一個(gè)單一的數(shù)字。記住,這個(gè)數(shù)字只是過(guò)濾器位于圖像左上角的代表?,F(xiàn)在,我們對(duì)輸入音量上的每個(gè)位置重復(fù)這個(gè)過(guò)程。(下一步將過(guò)濾器向右移動(dòng)1個(gè)單位,然后再向右移動(dòng)1,依此類推)。輸入卷上的每個(gè)唯一位置都會(huì)生成一個(gè)數(shù)字。將過(guò)濾器滑過(guò)所有位置后,您將發(fā)現(xiàn)所剩下的是一個(gè)28 x 28 x 1的數(shù)字?jǐn)?shù)組,我們稱之為激活圖或功能圖。你得到一個(gè)28×28陣列的原因是有一個(gè)5×5的濾波器可以放在一個(gè)32×32輸入圖像上的784個(gè)不同的位置。這784個(gè)數(shù)字被映射到一個(gè)28×28數(shù)組。
(快速注意:我使用的一些圖像,包括上面的圖像,來(lái)自Michael Nielsen的"Neural Networks and Deep Learning",強(qiáng)烈推薦)。
假設(shè)我們現(xiàn)在使用兩個(gè)5 x 5 x 3濾鏡而不是一個(gè)。那么我們的輸出量將是28 x 28 x 2.通過(guò)使用更多的過(guò)濾器,我們能夠更好地保留空間尺寸。在數(shù)學(xué)上,這是卷積層中發(fā)生的事情。
第一層 - 高層次的視角
但是,讓我們從高層次談?wù)撨@個(gè)卷積實(shí)際上在做什么。每個(gè)這些過(guò)濾器都可以被認(rèn)為是功能標(biāo)識(shí)符。當(dāng)我說(shuō)功能時(shí),我正在談?wù)摰氖侵本€邊緣,簡(jiǎn)單的顏色和曲線。想想所有圖像的共同點(diǎn),最簡(jiǎn)單的特點(diǎn)。假設(shè)我們的第一個(gè)過(guò)濾器是7 x 7 x 3并且將成為曲線檢測(cè)器。(在本節(jié)中,為了簡(jiǎn)單起見(jiàn),讓我們忽略過(guò)濾器深度為3單位的事實(shí),并且只考慮過(guò)濾器和圖像的頂部深度切片)。作為曲線檢測(cè)器,過(guò)濾器將具有像素結(jié)構(gòu),沿曲線形狀的區(qū)域是更高的數(shù)值(請(qǐng)記住,我們正在討論的這些濾波器只是數(shù)字?。?。
現(xiàn)在,讓我們回到數(shù)學(xué)上的可視化。當(dāng)我們?cè)谳斎塍w積的左上角有這個(gè)濾波器時(shí),它將計(jì)算該區(qū)域的濾波器和像素值之間的乘法。現(xiàn)在讓我們舉一個(gè)想要分類的圖像的例子,讓我們把我們的過(guò)濾器放在左上角。
請(qǐng)記住,我們所要做的就是將濾鏡中的值與圖像的原始像素值相乘。
基本上,在輸入圖像中,如果有一個(gè)通常類似于這個(gè)濾波器所代表的曲線的形狀,那么所有相乘的相加將會(huì)產(chǎn)生一個(gè)大的值!現(xiàn)在讓我們看看當(dāng)我們移動(dòng)過(guò)濾器時(shí)會(huì)發(fā)生什么。
價(jià)值低得多!信息信息范范信息亦范范范范范辛辛區(qū)信息預(yù)范信息 記住,這個(gè)conv層的輸出是一個(gè)激活圖。因此,在單一濾波器卷積的簡(jiǎn)單情況下(如果該濾波器是曲線檢測(cè)器),激活圖將顯示圖片中最有可能是曲線的區(qū)域。在這個(gè)例子中,我們的26 x 26 x 1激活圖的左上角(26是因?yàn)?x7濾鏡而不是5x5)將是6600.這個(gè)高值意味著在輸入中可能有某種曲線導(dǎo)致過(guò)濾器激活的音量。在我們的激活地圖右上角的值將是0,因?yàn)闆](méi)有任何東西在輸入音量導(dǎo)致過(guò)濾器激活(或者更簡(jiǎn)單的說(shuō),在原始圖像的該區(qū)域中沒(méi)有曲線)。請(qǐng)記住,這只是一個(gè)過(guò)濾器。信息范范范讀范范范亦內(nèi)范亦會(huì)信息及信息范信信息范辛辛 我們可以有其他的過(guò)濾器,用于向左彎曲或?yàn)橹本€邊緣的線條。更多的過(guò)濾器,激活圖的深度越大,我們對(duì)輸入量的信息也越多。
免責(zé)聲明:本節(jié)中描述的過(guò)濾器對(duì)描述卷積過(guò)程中數(shù)學(xué)的主要目的是簡(jiǎn)單的。在下面的圖片中,您將看到一些經(jīng)過(guò)訓(xùn)練的網(wǎng)絡(luò)的第一個(gè)conv層過(guò)濾器的實(shí)際可視化示例。盡管如此,主要論點(diǎn)仍然是一樣的。第一層上的過(guò)濾器在輸入圖像周圍進(jìn)行卷積,并在其正在查找的特定功能位于輸入體積中時(shí)"激活"(或計(jì)算高值)。
(快速提示:上面的圖片來(lái)自斯坦福大學(xué)的由Andrej Karpathy和Justin Johnson教授,推薦給那些希望更深入了解CNN的人。)
越來(lái)越深入的網(wǎng)絡(luò)
現(xiàn)在在傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)中,在這些conv層之間還有其他層。我強(qiáng)烈鼓勵(lì)有興趣的讀者了解他們的功能和效果,但是從一般意義上說(shuō),他們提供了非線性和維度維度,有助于提高網(wǎng)絡(luò)的魯棒性和控制過(guò)擬合。一個(gè)經(jīng)典的CNN架構(gòu)看起來(lái)就像這樣。
然而,最后一層是一個(gè)重要的層面,我們稍后會(huì)介紹。讓我們退一步看看迄今為止我們已經(jīng)學(xué)到了什么。我們討論了第一個(gè)conv層中的過(guò)濾器是用來(lái)檢測(cè)的。他們檢測(cè)低級(jí)功能,如邊緣和曲線。正如人們所想象的,為了預(yù)測(cè)圖像是否是一種對(duì)象,我們需要網(wǎng)絡(luò)能夠識(shí)別更高層次的特征,如手或爪子或耳朵。那么讓我們來(lái)思考第一個(gè)conv層之后的網(wǎng)絡(luò)輸出結(jié)果。這將是一個(gè)28×28×3的體積(假設(shè)我們使用三個(gè)5×5×3濾波器)。當(dāng)我們經(jīng)過(guò)另一個(gè)conv層時(shí),第一個(gè)conv層的輸出成為第二個(gè)的輸入conv層。現(xiàn)在,這看起來(lái)有點(diǎn)難以想象。當(dāng)我們?cè)谡務(wù)摰谝粚訒r(shí),輸入只是原始圖像。然而,當(dāng)我們談?wù)摰诙哟蔚臅r(shí)候,輸入是第一層產(chǎn)生的激活圖。因此,輸入的每一層都基本上描述了原始圖像中某些低級(jí)特征出現(xiàn)的位置?,F(xiàn)在當(dāng)你在上面應(yīng)用一組過(guò)濾器時(shí)(通過(guò)第二個(gè)過(guò)濾器)conv層),則輸出將是代表更高級(jí)特征的激活。這些特征的類型可以是半圓(曲線和直邊的組合)或正方形(幾個(gè)直邊的組合)。當(dāng)您瀏覽網(wǎng)絡(luò)并通過(guò)更多的轉(zhuǎn)發(fā)層時(shí),您將獲得代表越來(lái)越復(fù)雜功能的激活地圖。在網(wǎng)絡(luò)結(jié)束時(shí),您可能會(huì)有一些過(guò)濾器在圖像中有手寫時(shí)激活,過(guò)濾器在看到粉紅色的物體時(shí)激活,等等。如果您想要了解關(guān)于在ConvNets中可視化過(guò)濾器的更多信息,Matt Zeiler和Rob Fergus一個(gè)很好的研究論文討論的話題。杰森Yosinski也有一個(gè)視頻在YouTube上提供了一個(gè)很好的視覺(jué)表現(xiàn)。另一個(gè)值得注意的事情是,當(dāng)你深入到網(wǎng)絡(luò)中時(shí),過(guò)濾器開始具有越來(lái)越大的接受范圍,這意味著他們能夠從原始輸入量的較大區(qū)域中考慮信息(另一種放置方式它們對(duì)像素空間的較大區(qū)域更敏感)。
完全連接層
現(xiàn)在,我們可以檢測(cè)到這些高級(jí)功能,蛋糕上的糖霜就是連接一個(gè)完全連接的層到網(wǎng)絡(luò)的盡頭。這個(gè)圖層基本上需要一個(gè)輸入量(無(wú)論輸出是在其之前的conv或ReLU還是pool層),并輸出一個(gè)N維向量,其中N是程序必須從中選擇的類的數(shù)量。例如,如果你想要一個(gè)數(shù)字分類程序,N將是10,因?yàn)橛?0個(gè)數(shù)字。這個(gè)N維向量中的每個(gè)數(shù)字表示某個(gè)類別的概率。例如,如果用于數(shù)字分類程序的結(jié)果向量是[0.1.175 0 0 0 0 0 .05],那么這代表10%的概率,即圖像是1,10%的概率圖像是2,圖像是3的概率是75%,圖像是9的概率是5%(注意:還有其他方法可以表示輸出,但我只是展示了softmax方法)。完全連接圖層的工作方式是查看上一層的輸出(我們記得它應(yīng)該代表高級(jí)特征的激活圖),并確定哪些特征與特定類最相關(guān)。例如,如果程序預(yù)測(cè)某些圖像是狗,則在激活圖中將具有高值,例如爪子或4條腿等的高級(jí)特征。類似地,如果程序預(yù)測(cè)某圖像是鳥,它將在激活地圖中具有很高的價(jià)值,代表像翅膀或喙等高級(jí)特征?;旧?,F(xiàn)C層看著什么高級(jí)特征與特定類最強(qiáng)關(guān)聯(lián),并具有特定的權(quán)重,以便當(dāng)你計(jì)算權(quán)重與上一層之間的乘積,
培訓(xùn)(又名:什么使這個(gè)東西工作)
現(xiàn)在,這是我故意沒(méi)有提到的神經(jīng)網(wǎng)絡(luò)的一個(gè)方面,它可能是最重要的部分。閱讀時(shí)可能有很多問(wèn)題。第一個(gè)conv層中的過(guò)濾器如何知道要查找邊和曲線?完全連接的圖層如何知道要查看的激活圖?每層中的過(guò)濾器如何知道有什么值?計(jì)算機(jī)能夠調(diào)整其過(guò)濾值(或權(quán)重)的方式是通過(guò)稱為反向傳播的訓(xùn)練過(guò)程。
在我們進(jìn)入反向傳播之前,我們必須先退后一步,討論神經(jīng)網(wǎng)絡(luò)的工作需求?,F(xiàn)在我們都出生了,我們的思想是新鮮的。我們不知道什么是貓,狗或鳥。以類似的方式,在CNN開始之前,權(quán)重或篩選值是隨機(jī)的。過(guò)濾器不知道尋找邊緣和曲線。在更高層的過(guò)濾器不知道尋找爪子和喙。然而,隨著年齡的增長(zhǎng),我們的父母和老師向我們展示了不同的圖片和圖片,并給了我們相應(yīng)的標(biāo)簽。被賦予形象和標(biāo)簽的想法是CNN經(jīng)歷的培訓(xùn)過(guò)程。在深入研究之前,我們假設(shè)我們有一套訓(xùn)練集,其中包含成千上萬(wàn)的狗,貓和鳥的圖像,每個(gè)圖像都有一個(gè)這個(gè)圖像是什么動(dòng)物的標(biāo)簽。
所以反向傳播可以分為4個(gè)不同的部分,正向傳遞,丟失函數(shù),反向傳遞和權(quán)重更新。在正向傳球過(guò)程中,您將會(huì)看到一張訓(xùn)練圖像,我們記得這是一個(gè)32 x 32 x 3的數(shù)字?jǐn)?shù)組,并將其傳遞給整個(gè)網(wǎng)絡(luò)。在我們的第一個(gè)訓(xùn)練樣例中,由于所有的權(quán)值或過(guò)濾值都是隨機(jī)初始化的,因此輸出結(jié)果可能類似[.1.1.1.1.1.1.1.1.1.1],基本上是輸出不特別優(yōu)先考慮任何數(shù)字。網(wǎng)絡(luò)以其當(dāng)前的權(quán)重?zé)o法查找這些低級(jí)特征,因此無(wú)法就分類的可能性作出任何合理的結(jié)論。這轉(zhuǎn)到損失功能反向傳播的一部分。請(qǐng)記住,我們現(xiàn)在使用的是培訓(xùn)數(shù)據(jù)。這個(gè)數(shù)據(jù)有一個(gè)圖像和一個(gè)標(biāo)簽。例如,假設(shè)輸入的第一個(gè)訓(xùn)練圖像是3,圖像的標(biāo)簽是[0 0 0 1 0 0 0 0 0 0]。損失函數(shù)可以用許多不同的方式來(lái)定義,但常見(jiàn)的是MSE(均方誤差),是實(shí)際預(yù)測(cè)的平方的1.5倍。
假設(shè)變量L等于該值。正如你可以想象的那樣,第一對(duì)訓(xùn)練圖像的損失將非常高。現(xiàn)在,讓我們直觀地思考這個(gè)問(wèn)題。我們希望達(dá)到預(yù)測(cè)的標(biāo)簽(ConvNet的輸出)與訓(xùn)練標(biāo)簽相同的點(diǎn)(這意味著我們的網(wǎng)絡(luò)得到了預(yù)測(cè)權(quán))。為了達(dá)到這個(gè)目的,我們希望最小化損失量我們有。將這看作是微積分中的一個(gè)優(yōu)化問(wèn)題,我們想要找出哪些輸入(權(quán)重在我們的情況下)是最直接導(dǎo)致網(wǎng)絡(luò)損失(或錯(cuò)誤)的因素。
這是dL / dW的數(shù)學(xué)等價(jià)物,其中W是特定層的權(quán)重。現(xiàn)在,我們要做的是通過(guò)網(wǎng)絡(luò)進(jìn)行反向傳遞,即確定哪些權(quán)重對(duì)損失貢獻(xiàn)最大,并設(shè)法調(diào)整損失,從而減少損失。一旦我們計(jì)算出這個(gè)導(dǎo)數(shù),我們就會(huì)進(jìn)入權(quán)重更新的最后一步。這是我們?nèi)〉盟羞^(guò)濾器的權(quán)重,并更新它們,使它們?cè)谔荻鹊南喾捶较蜃兓?/p>
該學(xué)習(xí)速率是由程序員選擇的參數(shù)。高學(xué)習(xí)率意味著在權(quán)重更新中采取更大的步驟,因此,模型可能花費(fèi)較少的時(shí)間來(lái)收斂于最優(yōu)權(quán)重集合。但是,如果學(xué)習(xí)速度過(guò)高,可能會(huì)導(dǎo)致跳躍過(guò)大,不夠精確,無(wú)法達(dá)到最佳點(diǎn)。
正向傳遞,丟失函數(shù),反向傳遞和參數(shù)更新的過(guò)程是一次訓(xùn)練迭代。程序?qū)⒅貜?fù)這個(gè)過(guò)程,對(duì)每組訓(xùn)練圖像(通常稱為批次)進(jìn)行固定次數(shù)的迭代。一旦你完成了最后一個(gè)訓(xùn)練樣例的參數(shù)更新,希望網(wǎng)絡(luò)應(yīng)該被訓(xùn)練得足夠好,這樣層的權(quán)重才能被正確地調(diào)整。
測(cè)試
最后,為了看看我們的CNN是否有效,我們有一套不同的圖像和標(biāo)簽(在訓(xùn)練和測(cè)試之間不能一蹴而就),并通過(guò)CNN傳遞圖像。我們將輸出與實(shí)際情況進(jìn)行比較,看看我們的網(wǎng)絡(luò)是否正常工作!
公司如何使用CNNs
數(shù)據(jù),數(shù)據(jù),數(shù)據(jù)。那些擁有這個(gè)神奇的4字母詞的公司就是那些比其他競(jìng)爭(zhēng)者具有內(nèi)在優(yōu)勢(shì)的公司。您可以為網(wǎng)絡(luò)提供的培訓(xùn)數(shù)據(jù)越多,您可以進(jìn)行的培訓(xùn)迭代次數(shù)越多,您可以進(jìn)行的權(quán)重更新越多,調(diào)整到網(wǎng)絡(luò)的時(shí)間越長(zhǎng)。Facebook(和Instagram)可以使用目前擁有的十億用戶的所有照片,Pinterest可以使用其網(wǎng)站上500億個(gè)引腳的信息,Google可以使用搜索數(shù)據(jù),Amazon可以使用數(shù)百萬(wàn)個(gè)產(chǎn)品每天都買?,F(xiàn)在你知道他們?nèi)绾问褂盟哪Х恕?/p>
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4772瀏覽量
100807 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5503瀏覽量
121206 -
cnn
+關(guān)注
關(guān)注
3文章
352瀏覽量
22231
原文標(biāo)題:深度學(xué)習(xí)初學(xué)者了解CNN卷積神經(jīng)網(wǎng)絡(luò)的黃金指南
文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論