多年來(lái),深度學(xué)習(xí)一直處于所謂的人工智能革命的最前沿,許多人相信深度學(xué)習(xí)將帶領(lǐng)我們進(jìn)入通用AI時(shí)代。然而,從12,13年甚囂塵上,到如今的塵埃落地,浪潮一再的退去。面對(duì)疲軟的風(fēng)口,養(yǎng)肥的豬,人工智能將何去何從?
多年來(lái),深度學(xué)習(xí)一直處于所謂的人工智能革命的最前沿,許多人相信深度學(xué)習(xí)將帶領(lǐng)我們進(jìn)入通用AI時(shí)代。在2014,2015,2016年,很多事件每每推動(dòng)人們對(duì) Ai的理解邊界。例如Alpha Go等。特斯拉等公司甚至宣稱:全自動(dòng)駕駛汽車正在路上。
但是現(xiàn)在,2018年中期,事情開(kāi)始發(fā)生變化。從表面上看,NIPS會(huì)議仍然很火,關(guān)于AI的新聞也很多,Elon Mask仍然看好自動(dòng)駕駛汽車,而Google CEO不斷重申Andrew Ng的口號(hào),即AI比電力作出了更大的貢獻(xiàn)。但是這些言論已經(jīng)開(kāi)始出現(xiàn)裂紋。裂紋最明顯的地方是自動(dòng)駕駛 - 這種現(xiàn)實(shí)世界中的實(shí)際應(yīng)用。
深度學(xué)習(xí)塵埃落定
當(dāng)ImageNet有了很好的解決方案(注意這并不意味著視覺(jué)問(wèn)題得到已經(jīng)解決【1】),該領(lǐng)域的許多杰出研究人員(甚至包括一直保持低調(diào)的Geoff Hinton)都在積極地接受采訪,在社交媒體上發(fā)布內(nèi)容(例如Yann Lecun,吳恩達(dá),李飛飛等)。他們的話,可以總結(jié)為:世界正處在一場(chǎng)巨大的AI革命中。然而,好幾年已經(jīng)過(guò)去了,這些人的Twitter信息變得不那么活躍了,比如 Andrew Ng:
2013年 - 每天0.413推文
2014 年- 每天0.605條推文
2015 -每天0.320條推文
2016 -每天0.802推文
2017 -每天0.668推文
2018 -每天0.263推文(至5月24日)
也許這是因?yàn)锳ndrew 的某些夸張言論,在當(dāng)下會(huì)被進(jìn)行更詳細(xì)的審查,如下面的推文【2】所示:
不可否認(rèn),深度學(xué)習(xí)的熱度已經(jīng)大大下降,贊美深度學(xué)習(xí)作為 AI終極算法的推文少得多了,而且論文正在變得不那么“革命”,現(xiàn)在大家換了個(gè)詞,叫:進(jìn)化。
自從Alpha Zero以來(lái),DeepMind已經(jīng)許久沒(méi)有產(chǎn)出令人驚嘆的東西了。 OpenAI更是相當(dāng)?shù)牡驼{(diào),他們最近一次出現(xiàn)在媒體的報(bào)道上,是他們做了一個(gè)自動(dòng)打Dota 2【3】的機(jī)器人 [我一開(kāi)始以為,這是跟 Alpha Go 一樣的偉大,然后后來(lái)證明,并不是]。
從某些文章來(lái)看【4】,貌似Google實(shí)際上并不知道如何處理Deepmind,因?yàn)樗麄兊慕Y(jié)果顯然不如原先預(yù)期的那么實(shí)際......至于杰出的研究人員,他們一般都為了funding 在各種政府機(jī)構(gòu)間游走,Yann Lecun甚至【5】從 Facebook的AI首席科學(xué)家的位置上下臺(tái)了。
像這種從富有的大公司向政府資助的研究機(jī)構(gòu)的逐漸轉(zhuǎn)變表明,這些公司對(duì)這類研究的興趣(我認(rèn)為是谷歌和Facebook)實(shí)際上正在慢慢消失。這些都是早期跡象,沒(méi)有人大聲的宣揚(yáng),但這些行動(dòng)就像肢體語(yǔ)言,也能傳達(dá)某種意思。
大規(guī)模深度學(xué)習(xí)(實(shí)際并沒(méi)有)
深度學(xué)習(xí)的一個(gè)重要口號(hào)是它可以輕松的擴(kuò)展。我們?cè)?012年擁有60M參數(shù)的AlexNet,現(xiàn)在我們已經(jīng)有至少1000倍的數(shù)量的模型了嗎?好吧,我們可能會(huì)這樣做,但問(wèn)題是 - 這些東西有1000x的能力提升嗎? 100倍的能力? openAI的研究派上用場(chǎng):
因此,就視覺(jué)應(yīng)用而言,我們看到VGG和Resnets在計(jì)算資源應(yīng)用的一個(gè)數(shù)量級(jí)上飽和(就參數(shù)數(shù)量而言實(shí)際上較少)。Xception是谷歌Inception架構(gòu)的一種變體,實(shí)際上它在ImageNet上的表現(xiàn)只是略微優(yōu)于其他模型,因?yàn)锳lexNet基本上解決了ImageNet。
因此,在比AlexNet計(jì)算量提高100倍的情況下,我們?cè)谝曈X(jué)方面已經(jīng)有了近乎飽和的體系結(jié)構(gòu),換句話說(shuō),圖像分類的精確已經(jīng)提不動(dòng)了。
神經(jīng)機(jī)器翻譯是所有大型網(wǎng)絡(luò)搜索玩家(google, baidu, yahoo 等)的一大努力,難怪它有多少機(jī)器就用多少機(jī)器(盡管谷歌翻譯仍然很糟糕,雖然已經(jīng)在變得更好了)。
該圖上的最新三點(diǎn)有趣地顯示了DeepMind和OpenAI應(yīng)用于游戲的強(qiáng)化學(xué)習(xí)相關(guān)項(xiàng)目。特別是AlphaGo Zero和稍微更通用的Alpha Zero需要大量計(jì)算,但不適用于真實(shí)世界的應(yīng)用程序,因?yàn)樾枰罅坑?jì)算來(lái)模擬和生成這些數(shù)據(jù)來(lái)供這些模型使用。
好的,現(xiàn)在我們可以在幾分鐘內(nèi)完成AlexNet的訓(xùn)練,但是我們可以在幾天內(nèi)訓(xùn)練一個(gè)比AlexNet大1000倍,質(zhì)量更好的模型嗎?顯然不是..
所以實(shí)際上,這張旨在表明深度學(xué)習(xí)規(guī)模的圖,表明了最終結(jié)果恰恰相反。我們不能僅僅擴(kuò)大AlexNet的規(guī)模來(lái)得到更好的結(jié)果——我們必須處理特定的體系結(jié)構(gòu)。有效的額外的計(jì)算, 不需要大量的數(shù)據(jù)樣本,才是努力的方向。
自動(dòng)駕駛事故
迄今為止,對(duì)深度學(xué)習(xí)的聲譽(yù)打擊最大的事件來(lái)自自動(dòng)駕駛領(lǐng)域。一開(kāi)始人們認(rèn)為End-to-End的深度學(xué)習(xí)可以以某種方式解決自動(dòng)駕駛問(wèn)題 (Nvidia特別推崇這一理念)。現(xiàn)在我覺(jué)得地球上應(yīng)該沒(méi)有人還相信這一點(diǎn)(盡管我可能是錯(cuò)的)。
看看去年加州車輛管理局DMV給各個(gè)廠商的自動(dòng)駕駛車輛人為干預(yù)報(bào)告,Nvidia的自動(dòng)駕駛汽車在缺少人為干預(yù)的情況下,連開(kāi) 10英里都做不到。
自2016年以來(lái),特斯拉自動(dòng)駕駛系統(tǒng)發(fā)生了幾起事故[6,7,8],其中一些事件是致命的[6,7]。可以說(shuō),特斯拉的自動(dòng)駕駛輔助技術(shù)不應(yīng)該與自動(dòng)駕駛混淆起來(lái)雖然在核心上它依賴于同一種技術(shù)。
都到今天了,它仍然不能自動(dòng)停在路口,不能識(shí)別交通信號(hào)燈,甚至不能通過(guò)環(huán)形交叉路口。那是在2018年5月,在承諾特斯拉將自動(dòng)駕駛從西海岸開(kāi)到東海岸的幾個(gè)月后(盡管傳言是他們已經(jīng)嘗試過(guò)但是在小于30次人工干預(yù)的情況下無(wú)法實(shí)現(xiàn))。幾個(gè)月前(2018年2月),伊隆馬斯克(Elon Musk)在一次電話會(huì)議上被問(wèn)及海岸到海岸的行駛問(wèn)題時(shí)重復(fù)說(shuō)到:
“我們本可以實(shí)現(xiàn)海岸到海岸的駕駛,但它需要太多的專門代碼來(lái)有效地進(jìn)行游戲;或者使代碼變得脆弱一些,這樣它只適用于一個(gè)特定的路線,這不是通用的解決方案。
我對(duì)神經(jīng)網(wǎng)絡(luò)方面取得的進(jìn)展感到非常興奮。但是看起來(lái)并沒(méi)有太多的進(jìn)展。它會(huì)覺(jué)得這是一個(gè)蹩腳的司機(jī)。就像…,好吧,這是一個(gè)非常好的司機(jī)。像“Holy Cow!”
那么,看看上面的圖表(來(lái)自O(shè)penAI),我似乎沒(méi)有看到指數(shù)級(jí)的進(jìn)展。幾乎在這個(gè)領(lǐng)域的每一個(gè)科研人員在離開(kāi)之前都沒(méi)有看到指數(shù)級(jí)的進(jìn)展。實(shí)質(zhì)上,上述說(shuō)法應(yīng)該被解釋為:“我們目前沒(méi)有可以安全地驅(qū)使我們實(shí)現(xiàn)岸到岸駕駛的技術(shù),盡管如果我們真的想要(也許......)我們可以偽造它。我們深深地希望神經(jīng)網(wǎng)絡(luò)領(lǐng)域的蓬勃發(fā)展盡快到來(lái),并幫助我們免受恥辱和大規(guī)模的訴訟“。
但是迄今為止,人工智能泡沫中最大的刺點(diǎn)是Uber自駕車在亞利桑那州(Arizona)發(fā)生的撞死一名行人的事故。從NTSB的初步報(bào)告中,我們可以讀到一些令人驚訝的發(fā)言:
(自動(dòng)駕駛系統(tǒng)會(huì)將行人識(shí)別為一個(gè)機(jī)器,或者說(shuō)一個(gè)交通工具,對(duì)其運(yùn)動(dòng)速度的判斷就會(huì)有問(wèn)題,預(yù)留的減速時(shí)間就會(huì)出現(xiàn)問(wèn)題,從而出現(xiàn)緊急情況)
在報(bào)告中,除了整體系統(tǒng)設(shè)計(jì)的明顯失敗,令人吃驚的是,系統(tǒng)花費(fèi)了很長(zhǎng)時(shí)間去確定前方的物體到底是什么(行人、自行車、汽車或者其他),而不是作出判斷,保證不撞到它。主要有幾個(gè)原因:第一,人們通常會(huì)在事后表達(dá)他們當(dāng)時(shí)的決定,例如,“我看到一個(gè)騎自行車的人,所以我轉(zhuǎn)向左邊避開(kāi)他”。大量的心理學(xué)研究提供了截然不同解釋--:當(dāng)一個(gè)人遇到這種情況,會(huì)在很短的時(shí)間內(nèi),通過(guò)神經(jīng)反饋,將前方物體識(shí)別為障礙,并迅速行動(dòng),避開(kāi)他。稍長(zhǎng)時(shí)間后,他意識(shí)到剛才發(fā)生了什么,并提供口頭解釋。我們的許多決定里,有很多都不是用語(yǔ)言表達(dá)的。語(yǔ)言表達(dá)的開(kāi)銷很大,并且現(xiàn)實(shí)中通常沒(méi)有那么充裕的時(shí)間。這些機(jī)制為了保護(hù)我們的安全,已經(jīng)進(jìn)化了10億年的時(shí)間,雖然仍然可能導(dǎo)致錯(cuò)誤,但我們對(duì)三維空間、速度、預(yù)測(cè)行為的理解能力,已經(jīng)通過(guò)進(jìn)化過(guò)程,磨練的相當(dāng)好了。
但是由于這些問(wèn)題大多無(wú)法用語(yǔ)言來(lái)表達(dá),并且很難測(cè)量,因此難以在這些方面對(duì)機(jī)器學(xué)習(xí)系統(tǒng)優(yōu)化。這種情況非常有利于基于Nvidia的端到端方法的發(fā)展,通過(guò)學(xué)習(xí)圖像到動(dòng)作的映射,不考慮任何語(yǔ)言,從某種程度來(lái)說(shuō),這個(gè)方法沒(méi)有錯(cuò),但問(wèn)題是,輸入空間的超高維變量和動(dòng)作空間的低維標(biāo)簽之間的差距非常大。因此,與輸入的信息量相比,“標(biāo)簽”的數(shù)量非常小,在這種情況下,算法非常容易學(xué)習(xí)到虛假的關(guān)系,正如在深度學(xué)習(xí)中所舉得例子一樣,需要不同的范式,將對(duì)輸入空間的感知能力作為第一步,使得系統(tǒng)能夠提取真實(shí)世界的語(yǔ)義特征,而不是虛假的相關(guān)性。
事實(shí)上,如果說(shuō)我們從深度學(xué)習(xí)的爆發(fā)式增長(zhǎng)中學(xué)到了什么的話,那就是高維圖像空間中含有非常多的偽模式,并在許多圖像中進(jìn)行了泛化,這就使分類器好像理解了它們所看到的圖片那樣。即使那些頂級(jí)研究人員亦不得不承認(rèn),事實(shí)并非如此。
需要提到的是,更高層的人正在意識(shí)到這種問(wèn)題,并開(kāi)始公開(kāi)的批評(píng)它。最為活躍的要數(shù)Gary Marcus。雖然我并不認(rèn)同Gary關(guān)于AI的所有觀點(diǎn),但我們都認(rèn)同,它還沒(méi)有像宣傳的那么強(qiáng)大。他的博文Deeplearning: A critical appraisal【10】和In defense of skepticism about deep learning【11】中,詳細(xì)的解釋了深度學(xué)習(xí)的宣傳過(guò)程。我很尊重Gary,他表現(xiàn)的就像一個(gè)真正的科學(xué)家,而很多深度學(xué)習(xí)名人,卻像是廉價(jià)的明星一樣。
結(jié)論
預(yù)測(cè)人工智能的冬天就像是猜測(cè)股市崩盤一樣——不可能精確地知道發(fā)生的時(shí)間,但幾乎可以肯定會(huì)在某個(gè)時(shí)刻發(fā)生,就像股市崩盤之前,有跡象表明會(huì)發(fā)生危機(jī),但在當(dāng)時(shí)的環(huán)境中,卻很容易被大家忽視。在我看來(lái),深度學(xué)習(xí)已經(jīng)出現(xiàn)了明顯的下降跡象。我并不知道這個(gè)冬天會(huì)有多“深度”,我也不知道接下來(lái)會(huì)發(fā)生什么,但我可以肯定,這個(gè)冬天一定會(huì)來(lái)臨,并且只會(huì)來(lái)的比想象的要早。
-
人工智能
+關(guān)注
關(guān)注
1791文章
47314瀏覽量
238648 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5503瀏覽量
121206
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論