0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)如今大獲成功的原因有哪些?如何才能取得進(jìn)一步的突破?

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-10-04 09:24 ? 次閱讀

機(jī)器學(xué)習(xí)如今大獲成功的原因有哪些?如何才能取得進(jìn)一步的突破?南京大學(xué)周志華教授在AI WORLD 2018大會(huì)上分享他關(guān)于機(jī)器學(xué)習(xí)的一點(diǎn)思考:我們需要設(shè)計(jì)新的、神經(jīng)網(wǎng)絡(luò)以外的深度模型;讓智能體在弱監(jiān)督條件下也能夠?qū)W習(xí),以及考慮開放動(dòng)態(tài)任務(wù)環(huán)境下的學(xué)習(xí)。

南京大學(xué)計(jì)算機(jī)系主任、人工智能學(xué)院院長(zhǎng)周志華分享了他《關(guān)于機(jī)器學(xué)習(xí)的一點(diǎn)思考》。周志華教授表示,當(dāng)前機(jī)器學(xué)習(xí)成功的背后,實(shí)際上離不開三點(diǎn):1)有效的深度模型,現(xiàn)階段基本上就是深度神經(jīng)網(wǎng)絡(luò);2)存在強(qiáng)監(jiān)督信息,也即數(shù)據(jù)都要有標(biāo)注,而且越精準(zhǔn)越好;3)學(xué)習(xí)的環(huán)境較為穩(wěn)定。

因此,如果未來機(jī)器學(xué)習(xí)要取得進(jìn)一步突破,就必須:1)設(shè)計(jì)新的、多樣化的深度模型;2)讓智能體能夠在弱監(jiān)督條件下學(xué)習(xí);3)考慮開放動(dòng)態(tài)任務(wù)環(huán)境下的學(xué)習(xí)。

周志華教授說,機(jī)器學(xué)習(xí)界早就很清楚,“沒有免費(fèi)的午餐”,也即任何一個(gè)模型可能只適用于一部分的任務(wù),而另外一些任務(wù)是不適用的。例如,Kaggle競(jìng)賽中有各種各樣的任務(wù),但在圖像、視頻、語音之外的很多任務(wù)上,比如訂機(jī)票、訂旅館之類,還是傳統(tǒng)機(jī)器學(xué)習(xí)技術(shù)(如隨機(jī)森林或XGBoost)表現(xiàn)更好,尤其是涉及符號(hào)建模、離散建模、混合建模等問題。

周志華教授著重介紹了他帶領(lǐng)團(tuán)隊(duì)提出的“深度森林”,這是一種以決策樹為基礎(chǔ)構(gòu)建的深度模型。深度森林在超大型互聯(lián)網(wǎng)金融企業(yè)的非法套現(xiàn)檢測(cè)任務(wù)中,近2億的真實(shí)交易數(shù)據(jù)實(shí)測(cè)上,性能超越了包括深度神經(jīng)網(wǎng)絡(luò)在內(nèi)的其他模型。這也驗(yàn)證了周志華教授及其團(tuán)隊(duì)的猜想——在很多其他任務(wù)上,非神經(jīng)網(wǎng)絡(luò)的深度模型能找到用武之地。

不過,周志華教授也表示,任何一個(gè)理論的提出,都需要經(jīng)過長(zhǎng)時(shí)間的發(fā)展與完善。深度森林目前尚處于初級(jí)階段,好比打開了“深度學(xué)習(xí)”這間小黑屋的一扇門,還有更多需要去探索。

周志華:關(guān)于機(jī)器學(xué)習(xí)的一點(diǎn)思考

以下是南京大學(xué)計(jì)算機(jī)系主任、人工智能學(xué)院院長(zhǎng)周志華教授在AI WORLD 2018世界人工智能峰會(huì)上發(fā)表的演講。

周志華:各位朋友,大家上午好!謝謝新智元楊總的邀請(qǐng),前面一直沒有機(jī)會(huì)參加,今天很高興有這個(gè)機(jī)會(huì)。我本人從事的是機(jī)器學(xué)習(xí)方面的研究,今天就和大家匯報(bào)一些關(guān)于機(jī)器學(xué)習(xí)方面粗淺的看法,談一談機(jī)器學(xué)習(xí)發(fā)展取得了哪些成功,后面會(huì)有哪些問題值得進(jìn)一步關(guān)注。

大家都知道,這一輪的人工智能熱潮很大程度上是由于機(jī)器學(xué)習(xí),特別是其中深度學(xué)習(xí)技術(shù)取得了巨大的成功??梢哉f今天每個(gè)人、每天都在談機(jī)器學(xué)習(xí),機(jī)器學(xué)習(xí)已經(jīng)無所不在,各種各樣的智能應(yīng)用當(dāng)中如果離開了機(jī)器學(xué)習(xí),基本上是不可想像的。

我們可能要問這樣一個(gè)問題:

機(jī)器學(xué)習(xí)取得了這么多的成功,這些成功的背后到底是什么呢?

大家常說,現(xiàn)在成功的智能應(yīng)用后面有三個(gè)重要的條件:一是現(xiàn)在有大數(shù)據(jù)了,二是現(xiàn)在有很強(qiáng)大的計(jì)算能力了,三是我們?cè)?a target="_blank">算法方面取得了很多突破。

這三個(gè)因素都特別重要,但今天我們將主要聚焦于機(jī)器學(xué)習(xí)技術(shù)本身,談一談機(jī)器學(xué)習(xí)技術(shù)本身取得這些進(jìn)展,背后到底有哪些原因。

其實(shí),無外乎就是三個(gè)因素:

1、能找到有效的深度模型

2、存在很多很強(qiáng)的監(jiān)督信息

3、任務(wù)都是比較穩(wěn)定的環(huán)境

現(xiàn)在所有成功的機(jī)器學(xué)習(xí)應(yīng)用背后都離不開這三者,下面我們分別來看。

天下沒有免費(fèi)的午餐,深度神經(jīng)網(wǎng)絡(luò)必然有不適用的任務(wù)

首先是深度模型。

現(xiàn)在深度學(xué)習(xí)在圖像、視頻、語音這些數(shù)字信號(hào)建模任務(wù)當(dāng)中取得了巨大的成功。如果我們問一問大家,“深度學(xué)習(xí)”是什么?我想從絕大多數(shù)人那里得到的答案都會(huì)是:

深度學(xué)習(xí)就是深度神經(jīng)網(wǎng)絡(luò),甚至認(rèn)為“深度學(xué)習(xí)”就是“深度神經(jīng)網(wǎng)絡(luò)”的同義詞,談到深度學(xué)習(xí)就要從深度神經(jīng)網(wǎng)絡(luò)或者從神經(jīng)網(wǎng)絡(luò)談起。

事實(shí)上,神經(jīng)網(wǎng)絡(luò)并不是新事物,我們已經(jīng)研究了半個(gè)多世紀(jì),只不過以前我們通常研究的是有一個(gè)隱層或兩個(gè)隱層這種比較淺的神經(jīng)網(wǎng)絡(luò),其中每個(gè)計(jì)算單元都是非常簡(jiǎn)單的模型。早在1943年,我們就已經(jīng)把它抽象成了這樣一個(gè)非常簡(jiǎn)單的數(shù)學(xué)公式,就是從外界收到輸入X,經(jīng)過W放大,總的輸入如果要比θ高,我們就會(huì)用激活函數(shù)處理進(jìn)行輸出。這樣的模型到今天依然在沿用。

深度神經(jīng)網(wǎng)絡(luò)帶來的最大區(qū)別是什么呢?雖然有各種各樣的模型,各種各樣的算法,但是最根本的差別就是現(xiàn)在我們用了很多很多層。

深度神經(jīng)網(wǎng)絡(luò)最著名、最早的成功來自2012年,在計(jì)算機(jī)視覺領(lǐng)域最著名的ImageNet比賽上獲勝。當(dāng)時(shí)這個(gè)獲勝的模型用了8層,2015年獲勝的模型用了152層,2016年就用到了1207層,今天幾千層的模型比比皆是。

實(shí)際上,這樣的模型當(dāng)中有大量參數(shù)需要計(jì)算,所以需要非常復(fù)雜、非常龐大的計(jì)算系統(tǒng)。雖然現(xiàn)在我們有了很強(qiáng)的計(jì)算設(shè)備和很巧妙的算法,但是我們能夠做到這一切,根本的原因之一是神經(jīng)網(wǎng)絡(luò)中基本計(jì)算單元激活函數(shù)是連續(xù)可微的。原來淺層神經(jīng)網(wǎng)絡(luò)用的是左邊的函數(shù),也是連續(xù)可微的,深度學(xué)習(xí)的年代我們通常會(huì)用右邊這樣的函數(shù)或變體。

不管怎么樣,可微性給我們帶來了非常重要的結(jié)果,就是可以很容易地計(jì)算出梯度,基于梯度的調(diào)整就可以用著名的BP算法來訓(xùn)練整個(gè)模型。

這一點(diǎn)非常重要,因?yàn)槿绻皇菑氖聶C(jī)器學(xué)習(xí)研究的朋友會(huì)覺得,神經(jīng)網(wǎng)絡(luò)半個(gè)世紀(jì)之前就有了,到了今天我們之所以能夠做更深的神經(jīng)網(wǎng)絡(luò),只不過是因?yàn)橛?jì)算能力強(qiáng),現(xiàn)在能夠訓(xùn)練了。實(shí)際上不是這樣的。

2006年之前,可以說我們都不知道怎么訓(xùn)練出5層以上的神經(jīng)網(wǎng)絡(luò),根本原因是一旦層數(shù)高了以后,用BP算法梯度就會(huì)消失,然后就不知道怎么學(xué)習(xí)下去。所以,2006年的時(shí)候Geoffrey Hinton做了很重要的工作,通過逐層訓(xùn)練來緩解梯度消失,使得深層模型能夠被訓(xùn)練出來。后來有了一系列深度學(xué)習(xí)的工作,包括到今天為止的很多前沿研究,都是在防止深層網(wǎng)絡(luò)中梯度消失,使得梯度更新搜索能持續(xù)下去使訓(xùn)練能夠完成。

神經(jīng)網(wǎng)絡(luò)取得了非常大的成功,但任何一個(gè)模型都必然存在缺陷,神經(jīng)網(wǎng)絡(luò)也是這樣。

常用神經(jīng)網(wǎng)絡(luò)的朋友知道,現(xiàn)在深度神經(jīng)網(wǎng)絡(luò)有很多問題。大家經(jīng)常說的一件事情就是要花大量的精力調(diào)整參數(shù),參數(shù)實(shí)在太多了。不僅如此,這還會(huì)帶來另外一個(gè)嚴(yán)重的問題:哪怕我告訴你同樣的算法、用同樣的數(shù)據(jù),如果不告訴你參數(shù)是怎么調(diào)的,可能就沒有辦法得到同樣的結(jié)果。

此外,還有很多別的問題,比如我們現(xiàn)在用的神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度是固定的,一旦先確定了一個(gè)模型,就把這個(gè)模型用下去。問題是,在解決一個(gè)現(xiàn)實(shí)問題之前,我們?cè)鯓硬拍苤朗裁礃拥哪P褪亲钋‘?dāng)?shù)哪??我們不知道,所以通常?huì)用一個(gè)過度復(fù)雜的模型來做問題,做的過程當(dāng)中不斷把它簡(jiǎn)化。

最近如果大家關(guān)心深度學(xué)習(xí)方面的一些前沿研究,可能就會(huì)發(fā)現(xiàn)現(xiàn)在有大量的論文是關(guān)于模型壓縮、模型簡(jiǎn)化等等,事實(shí)上都是由這個(gè)原因?qū)е碌?。我們能不能在使用模型的最初不要使用那么?fù)雜的東西?先使用一個(gè)比較簡(jiǎn)單的,然后隨著數(shù)據(jù)和訓(xùn)練的過程讓它自適應(yīng)地、自動(dòng)地提升復(fù)雜度呢?很遺憾,我們對(duì)神經(jīng)網(wǎng)絡(luò)很難做到這一點(diǎn),因?yàn)槲覀円坏┯肂P算法基于梯度搜索來做這件事情,如果事先結(jié)構(gòu)都完全不知道,那么求梯度的對(duì)象也就不知道了。

這里有很多的問題,更不用說還有其它的缺陷,比如大的訓(xùn)練數(shù)據(jù)、理論分析很困難、黑箱模型等等。

有些工業(yè)界的朋友可能會(huì)說,前面你們談到的這些缺陷都是從學(xué)術(shù)角度來說的,我關(guān)心實(shí)踐,只要性能好就行,至于學(xué)術(shù)上有什么缺點(diǎn)我不關(guān)心。實(shí)際上就算從這個(gè)角度來看,可能也還有很多的需求希望我們?nèi)パ芯科渌哪P汀?/p>

如果我們真正看一看今天的深度神經(jīng)網(wǎng)絡(luò)到底在哪些任務(wù)上取得了成功,其實(shí)我們可以看到無外乎主要就是圖像、視頻、語音,涉及到這些對(duì)象的任務(wù)。它們非常典型,都是一些數(shù)值信號(hào)建模的任務(wù)。而在很多其他的任務(wù)上,深度神經(jīng)網(wǎng)絡(luò)表現(xiàn)并沒有那么好,比如可能有的朋友接觸過Kaggle這個(gè)數(shù)據(jù)分析競(jìng)賽的網(wǎng)站,上面每天都有很多數(shù)據(jù)分析的任務(wù),有訂機(jī)票的,有訂旅館的,到今天為止,雖然深度學(xué)習(xí)網(wǎng)絡(luò)這么成功,很多這樣的任務(wù)上我們可以看到獲勝的通常還是一些相對(duì)傳統(tǒng)的機(jī)器學(xué)習(xí)技術(shù),而不是深度神經(jīng)網(wǎng)絡(luò)。

事實(shí)上,機(jī)器學(xué)習(xí)界早就很清楚這件事情了,我們有一個(gè)經(jīng)過嚴(yán)格證明的定理,叫做“沒有免費(fèi)的午餐定理”,也就是任何一個(gè)模型可能只有一部分任務(wù)是適用的,另外一些任務(wù)是不適用的。

所以,雖然深度神經(jīng)網(wǎng)絡(luò)在有些任務(wù)上很成功,但對(duì)別的應(yīng)用來說,我們有沒有可能設(shè)計(jì)出新的模型,在這些任務(wù)取得以往沒有取得的效果?這可能也是非常值得關(guān)注的一件事情。

基于非可微構(gòu)件、非神經(jīng)網(wǎng)絡(luò)的深度模型,是下一步很值得探索的方向

如果我們重新審視深度模型自身的話,會(huì)發(fā)現(xiàn)今天我們所談的深度模型其實(shí)都是指深度神經(jīng)網(wǎng)絡(luò),而用更學(xué)術(shù)的話來說,這是由多層參數(shù)化可微的非線性模塊搭建起來的模型,而它本身能夠用BP算法去訓(xùn)練。

最近有些深度學(xué)習(xí)網(wǎng)絡(luò)的研究在考慮怎樣用一些不可微的激活函數(shù),但是實(shí)際上是怎么做的呢?先用了一個(gè)不可微的激活函數(shù)對(duì)現(xiàn)實(shí)建模,然后在優(yōu)化的過程當(dāng)中逐漸近似放松,最后還要把它變成一個(gè)可微的東西求解,所以最終還是離不開可微性。

但是,現(xiàn)實(shí)世界當(dāng)中并不是所有規(guī)律都是可微的,或者能夠利用可微構(gòu)件最優(yōu)建模的,而且另一方面我們機(jī)器學(xué)習(xí)界早就經(jīng)過了很多年的研究,也有很多不可微的構(gòu)件,這些構(gòu)件以后有沒有用呢?現(xiàn)在我們就在考慮這樣一個(gè)很基礎(chǔ)的問題,就是能不能基于不可微構(gòu)件進(jìn)行深度學(xué)習(xí)?

這個(gè)問題如果得到答案,我們可以得到一系列其它問題的答案,比如深度模型是不是只能用深度神經(jīng)網(wǎng)絡(luò)來做?我們有沒有可能不通過BP算法來做出這種深度模型?我們能不能在圖像、視頻、語音之外的任務(wù)也能夠獲得一些深度模型,幫助我們獲得更好的性能?

最近我們的課題組做了一些研究,提出了一個(gè)新的模型叫做“深度森林”,這是不基于神經(jīng)網(wǎng)絡(luò)來做的模型,它的基本構(gòu)件是決策樹,本身是不可微的,所以不能用BP訓(xùn)練,模型復(fù)雜度可以自己根據(jù)數(shù)據(jù)調(diào)整,超參數(shù)比深度神經(jīng)網(wǎng)絡(luò)要小。除了大規(guī)模的圖像類任務(wù)之外,很多的任務(wù)上它的性能已經(jīng)達(dá)到或者接近了深度神經(jīng)網(wǎng)絡(luò)的性能。從學(xué)術(shù)上來說,特別值得關(guān)注的就是它是第一個(gè)非神經(jīng)網(wǎng)絡(luò),不使用BP算法訓(xùn)練的深度學(xué)習(xí)模型。

后來國際上關(guān)于這件事情也有一些反響和探討。Keras的創(chuàng)始人說,這種可微層是當(dāng)前深度學(xué)習(xí)模型的根本弱點(diǎn),現(xiàn)在我們的模型本身是不使用可微層的;深度學(xué)習(xí)的奠基人Geoffrey Hinton說放棄BP從頭開始,現(xiàn)在我們的模型就完全沒有使用BP算法。這類模型不一定僅限于“深度森林”這樣的模型,基于非可微構(gòu)件、非神經(jīng)網(wǎng)絡(luò)的深度模型可能是下一步很值得探討的方向。大家知道深度神經(jīng)網(wǎng)絡(luò)已經(jīng)研究了二十多年,再往下研究的空間可能不見得那么大,但是其它的模型有沒有可能做深呢?一旦我們往前走了一步,可能會(huì)給我們帶來巨大的空間。

這只是學(xué)術(shù)上的意義,來自工業(yè)界做應(yīng)用的朋友可能會(huì)問,應(yīng)用上到底有什么東西用它做比較好?在圖像、視頻、語音這些純的數(shù)值建模之外,涉及到符號(hào)數(shù)據(jù)、離散數(shù)據(jù)、混合建模的問題,可能是這種不可微模型能夠發(fā)揮作用的地方。

比如最近我們和國內(nèi)一個(gè)非常大的互聯(lián)網(wǎng)金融公司合作,做在線支付的非法套現(xiàn)檢測(cè)。這個(gè)公司非常大,大家每天都在接觸它,每天有大量的網(wǎng)上交易,比如在2016年“雙11”這一天,一天就有1億多交易是通過網(wǎng)上支付來做的。非法套現(xiàn)是一個(gè)很大的問題。

我們給大家看個(gè)結(jié)果,訓(xùn)練數(shù)據(jù)用了1億3千多萬的真實(shí)交易,測(cè)試數(shù)據(jù)用了5千多萬真實(shí)交易,這可能是世界上最大的關(guān)于互聯(lián)網(wǎng)交易非法套現(xiàn)的數(shù)據(jù)。這家公司內(nèi)部有一個(gè)大型分布式機(jī)器學(xué)習(xí)系統(tǒng),他們的工程師很厲害,做了深度森林的大規(guī)模分布式實(shí)現(xiàn),實(shí)測(cè)結(jié)果來看比系統(tǒng)中以往的模型包括深度神經(jīng)網(wǎng)絡(luò)在內(nèi)的性能都還要更好一些。這也驗(yàn)證了我們所猜想的,在很多其它任務(wù)上,圖像、視頻、語音之外的任務(wù)上,非神經(jīng)網(wǎng)絡(luò)模型能找到用武之地。

另外一方面,這畢竟只是一個(gè)起點(diǎn),因?yàn)樯疃壬窠?jīng)網(wǎng)絡(luò)研究了20多年,深度神經(jīng)網(wǎng)絡(luò)經(jīng)過幾十萬上百萬研究實(shí)踐者這么多年的探索改進(jìn),而非神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的研究才剛剛開始,只有幾個(gè)人做了一點(diǎn)點(diǎn)事情,未來有非常多可以探索的東西。任何一個(gè)新技術(shù)往前走的話都有很多工作要做。關(guān)于深度模型真正重要的意義是,以前我們以為深度學(xué)習(xí)只有深度神經(jīng)網(wǎng)絡(luò),現(xiàn)在知道這里面可以有很多其它的東西。

當(dāng)前機(jī)器學(xué)習(xí)高度依賴于強(qiáng)監(jiān)督信息,弱監(jiān)督學(xué)習(xí)還有很大空白

關(guān)于監(jiān)督信息。對(duì)于一個(gè)機(jī)器來說,我們拿到很多數(shù)據(jù)之后,經(jīng)過訓(xùn)練得到模型,這個(gè)模型能夠發(fā)揮作用,能夠做精確預(yù)測(cè)。這里面很重要的是我們需要有很多數(shù)據(jù),而且這些數(shù)據(jù)需要有監(jiān)督信息。

深度學(xué)習(xí)需要大量的樣本,2012年ImageNet獲勝的網(wǎng)絡(luò)已經(jīng)用到超過1500多萬樣本,而現(xiàn)在的網(wǎng)絡(luò)越來越大,所需要的樣本越來越多。大家可能會(huì)有一個(gè)誤解,大數(shù)據(jù)時(shí)代數(shù)據(jù)樣本是不是不成問題?

其實(shí)不是的。

樣本需要標(biāo)記,我們現(xiàn)在大量的人力物力都花在這件事上,比如前段時(shí)間有討論人工智能會(huì)不會(huì)使得一些職業(yè)消亡。是不是消亡我們沒看到,但是我們已經(jīng)看到一個(gè)新的職業(yè),就是數(shù)據(jù)標(biāo)注已經(jīng)變成一個(gè)產(chǎn)業(yè)。這件事情不管它好還是不好,反正它就在那兒,至少告訴我們機(jī)器學(xué)習(xí)技術(shù)現(xiàn)在對(duì)強(qiáng)監(jiān)督信息是高度依賴的。

談到這件事可能有的朋友會(huì)想到前段時(shí)間很熱門的AlphaGo,最早的AlphaGo使用人類職業(yè)六段以上的所有棋局,超過16萬棋局進(jìn)行學(xué)習(xí)。后來發(fā)明了AlphaZero,不使用人類棋局,通過兩個(gè)程序直接對(duì)弈提升性能,這樣是不是不需要監(jiān)督信息了呢?

所謂的AlphaZero,DeepMind說它是“從零開始學(xué)習(xí)”,第一天沒有任何數(shù)據(jù),第三天超過戰(zhàn)勝李世石的版本,第21天超過Alpha Master,第40天達(dá)到人類見到的最強(qiáng)能力。中間沒有用任何人類的棋局,這是不是意味著它背后的強(qiáng)化學(xué)習(xí)技術(shù)真的不需要監(jiān)督信息?

其實(shí)不是這樣的。因?yàn)榉浅V匾囊稽c(diǎn),是當(dāng)兩個(gè)程序在對(duì)弈的時(shí)候,我們一定能夠判斷出勝負(fù),而勝負(fù)規(guī)則是非常強(qiáng)的監(jiān)督信息,是上帝判斷。

打個(gè)比方來說,我要建一個(gè)能抵抗18級(jí)臺(tái)風(fēng)的橋,事先不知道怎么建,沒有人教我怎么建,不管怎么樣,如果我能建出一個(gè)東西來,就有一個(gè)“上帝”告訴我,你這個(gè)東西能扛過去、那個(gè)東西扛不過去,有了這個(gè)指導(dǎo)信息,經(jīng)過不斷摸索最后就可能把這個(gè)橋建出來。

真正的現(xiàn)實(shí)應(yīng)用中哪里能得到這樣的上帝規(guī)則?根本得不到。我們也不可能通過無成本探索像圍棋這樣獲得大量的樣本。我們沒有辦法去做真正的不需要任何數(shù)據(jù),不需要任何標(biāo)記的學(xué)習(xí)。

我們現(xiàn)在能做的還是要往弱監(jiān)督學(xué)習(xí)上做。

所謂的弱監(jiān)督學(xué)習(xí),就是希望監(jiān)督信息不用那么多了,稍微少一點(diǎn),它還是能夠工作得很好。舉幾個(gè)典型的弱監(jiān)督學(xué)習(xí)的例子:在醫(yī)院里診斷乳腺圖像的影像,希望看到影像中有沒有鈣化點(diǎn)。一個(gè)醫(yī)院有很多數(shù)據(jù),比如100萬幅圖像,但是醫(yī)生只標(biāo)注了一萬幅,有99萬幅沒有標(biāo)記,這種叫做監(jiān)督信息不完全。

第二種情況,可能醫(yī)生只告訴我們這個(gè)圖像里面有病灶,但是病灶在哪兒沒標(biāo)出來,這時(shí)候我們把它叫監(jiān)督信息不具體。

還有更多的情況,比如醫(yī)生由于疲勞、疏忽等標(biāo)注中間有錯(cuò)誤,我們就把它叫做監(jiān)督信息不精確,這是三種典型的情況。

事實(shí)上很多應(yīng)用里這些問題都普遍存在,大量的應(yīng)用都能看到這三種情況。對(duì)這些情況事實(shí)上機(jī)器學(xué)習(xí)界有一些探索,比如第一種情況我們做半監(jiān)督學(xué)習(xí)、主動(dòng)學(xué)習(xí);第二種情況有多示例學(xué)習(xí),有MIML;第三種有眾包學(xué)習(xí)、帶噪學(xué)習(xí)。這是好的一方面。

另一方面,強(qiáng)監(jiān)督學(xué)習(xí)我們已經(jīng)研究很多,非常典型的弱監(jiān)督學(xué)習(xí)也已經(jīng)有研究,但是還有更多的弱監(jiān)督狀態(tài),例如這個(gè)圖中幾朵云之間的過渡狀態(tài),這些狀態(tài)有的連學(xué)術(shù)探討的文獻(xiàn)都還很少見。

關(guān)于弱監(jiān)督學(xué)習(xí),應(yīng)該說還有大量的事情需要我們?nèi)プ觥?/p>

開放環(huán)境下的機(jī)器學(xué)習(xí)研究是通往魯棒人工智能的重要環(huán)節(jié)

接下來談一談任務(wù)環(huán)境。

機(jī)器學(xué)習(xí)現(xiàn)在取得勝利,基本上都是在封閉靜態(tài)環(huán)境里面。我們要假定很多東西都是固定的,比如我們要假定所有的數(shù)據(jù)都來自于獨(dú)立同分布,數(shù)據(jù)分布恒定。

我們通常要假定樣本類別恒定,訓(xùn)練數(shù)據(jù)只能讓我識(shí)別蘋果和梨,以后給我的東西我就只會(huì)識(shí)別成蘋果和梨,給我一個(gè)菠蘿也會(huì)只從蘋果和梨當(dāng)中選擇一個(gè),判斷到底是兩個(gè)中間的哪個(gè)。

樣本屬性也是恒定的。樣本里面用一百個(gè)屬性來描述我的數(shù)據(jù),預(yù)測(cè)的時(shí)候也要把這一百個(gè)屬性給我,中間不能發(fā)生變化。

甚至我們的目標(biāo)也要恒定。一個(gè)模型好,我們就認(rèn)為它就是好的,不管對(duì)誰來說都應(yīng)該是一個(gè)好的模型。

事實(shí)上,我們現(xiàn)在越來越多地碰到所謂的開放動(dòng)態(tài)環(huán)境。在這樣的環(huán)境中可能一切都會(huì)發(fā)生變化。

現(xiàn)在有一條船開到海上去,我們不斷搜集海面的數(shù)據(jù)來做導(dǎo)航,可以知道今年在海上碰到的海冰分布和去年就是不一樣的,這個(gè)數(shù)據(jù)其實(shí)每年都在變。這就是數(shù)據(jù)分布發(fā)生變化。

我們碰到以前沒有見過的困難情況,這是新的類別。如果把船開到兩極地區(qū),由于環(huán)境惡劣,接入困難等等,有的屬性丟失了拿不到,這時(shí)候我們?cè)趺崔k?是不是屬性不夠就不能做預(yù)測(cè),不能用了呢?

最后,我們同時(shí)要兼顧很多目標(biāo),只考慮一種目標(biāo)得出來的模型往往可能是不能用的模型,必須要多個(gè)目標(biāo)都不錯(cuò)才能用。

可能會(huì)出現(xiàn)很多的變化,但是不管什么樣的變化出現(xiàn),我們都希望好的時(shí)候要好,壞的時(shí)候不能太壞。這時(shí)候模型的魯棒性是一個(gè)很根本的要求。

關(guān)于這個(gè)問題,可能有的朋友如果對(duì)機(jī)器學(xué)習(xí)比較熟悉的話,馬上就會(huì)想到,不是有一種強(qiáng)化學(xué)習(xí)技術(shù)嗎?這種強(qiáng)化學(xué)習(xí)技術(shù)是通過跟環(huán)境交互來進(jìn)行學(xué)習(xí)的,它不就自動(dòng)能適應(yīng)環(huán)境嗎?

事實(shí)上這可能是一個(gè)誤解,現(xiàn)在雖然已經(jīng)有很多強(qiáng)化學(xué)習(xí)的研究,包括用強(qiáng)化學(xué)習(xí)來打游戲,在很多游戲上獲得勝利等等,看起來是和環(huán)境交互,但事實(shí)上,在整個(gè)強(qiáng)化學(xué)習(xí)的經(jīng)典假定里面,它所考慮的是狀態(tài)在環(huán)境中的變化,但是環(huán)境本身的基本規(guī)則比如下圍棋的游戲規(guī)則,在游戲過程中是不變的。

絕對(duì)不是說在學(xué)習(xí)的過程中是一種環(huán)境,在用的時(shí)候環(huán)境變化了,我這個(gè)模型還能用,那是不行的。比方說訓(xùn)練下棋模型的時(shí)候原來是什么規(guī)則,以后模型使用的時(shí)候仍然是這樣一種規(guī)則環(huán)境。

這個(gè)問題使用傳統(tǒng)強(qiáng)化學(xué)習(xí)技術(shù)還遠(yuǎn)遠(yuǎn)解決不了。

國際上怎么看這件事?

在國際人工智能大會(huì)(AAAI)Tom Dietterich教授做了一個(gè)主席報(bào)告,叫“通往魯棒的人工智能”,特別提到現(xiàn)在人工智能技術(shù)取得巨大發(fā)展,越來越多地面臨高風(fēng)險(xiǎn)應(yīng)用。

所謂高風(fēng)險(xiǎn)應(yīng)用是指自動(dòng)駕駛汽車、自主武器、遠(yuǎn)程輔助外科手術(shù)等等,這一類應(yīng)用無一例外都是一旦出現(xiàn)了問題,會(huì)造成巨大的損失。所以,我們才希望不要出問題,希望學(xué)習(xí)過程必須有魯棒性。

他提出未來的人工智能系統(tǒng)需要能夠應(yīng)對(duì)未知情況,他給了一個(gè)說法,叫做“Unknown Unknowns”,指的就是開放環(huán)境。開放環(huán)境下機(jī)器學(xué)習(xí)研究是通往魯棒人工智能的非常重要的環(huán)節(jié)。

最近有另外一個(gè)消息,美國國防部宣布開發(fā)下一代人工智能技術(shù),用一句話來說,“旨在開發(fā)能夠進(jìn)行學(xué)習(xí)并適應(yīng)不斷變化環(huán)境的機(jī)器”。這句話其實(shí)就是把所謂的開放動(dòng)態(tài)環(huán)境下的學(xué)習(xí)換了一個(gè)表述,并且用到軍事應(yīng)用里去。

從學(xué)術(shù)上來說,我們組里對(duì)這件事關(guān)注得比較早,有一些探索,前面Dietterich教授的報(bào)告也提到了我們的一點(diǎn)工作。這張片子里面是我們最近關(guān)于應(yīng)付各種變化的一些探索性工作。

最近OpenAI組織了一個(gè)強(qiáng)化學(xué)習(xí)的比賽,比賽內(nèi)容是打游戲。最近這段時(shí)間可能大家聽到關(guān)于人工智能技術(shù)來打游戲的消息有不少了,比如DeepMind的消息等等?,F(xiàn)在我們說的這件事和其他那些有什么不同呢?

以前打游戲的時(shí)候是把告訴你要打什么游戲,學(xué)習(xí)程序可以把整個(gè)游戲都玩一遍,玩夠之后再和人玩,也就是說訓(xùn)練的時(shí)候可以看到所有的場(chǎng)景。

而這個(gè)比賽和以前不太一樣的是,它給我們的訓(xùn)練場(chǎng)景和測(cè)試場(chǎng)景是完全不一樣的,訓(xùn)練場(chǎng)景58個(gè)關(guān)卡,測(cè)試11個(gè)關(guān)卡,環(huán)境變化非常明顯,最重要的是考驗(yàn)我們?cè)趺慈ミm應(yīng)環(huán)境變化的能力。

這個(gè)比賽我們組俞揚(yáng)博士和合作者在200多個(gè)隊(duì)伍里面獲得冠軍。他們最重要是使用了兩個(gè)小技術(shù),都是我們自己做出來的技術(shù)。

第一個(gè)是2004年我們提出的叫“二次學(xué)習(xí)技術(shù)”,先學(xué)一個(gè)模型,再做第二次學(xué)習(xí)得到進(jìn)一步的加強(qiáng)。這個(gè)技術(shù)后來被Geoffrey Hinton重新命名為Knowledge Distillation。

另外一個(gè)技術(shù)是我們通過集成學(xué)習(xí)研究得到啟發(fā),引入多樣性激勵(lì)。如果只使用傳統(tǒng)強(qiáng)化學(xué)習(xí)環(huán)境的激勵(lì),進(jìn)去好的狀態(tài)之后就很難再探索了;而現(xiàn)在引入多樣性激勵(lì)之后,一個(gè)地方做得好,會(huì)自動(dòng)去探索別的地方。

我們這兩個(gè)原創(chuàng)的小技術(shù)結(jié)合起來得到一個(gè)好的結(jié)果,比拿別人發(fā)明的技術(shù)獲勝做起來更好玩。

總結(jié)一下,現(xiàn)在機(jī)器學(xué)習(xí)成功的背后主要有三個(gè)原因,有效的深度模型,存在強(qiáng)監(jiān)督信息以及學(xué)習(xí)環(huán)境比較穩(wěn)定。但是,現(xiàn)實(shí)應(yīng)用里面這三件事情都不成立,有的場(chǎng)合可能還沒有很適合的深度學(xué)習(xí)模型,監(jiān)督信息也不夠強(qiáng),任務(wù)環(huán)境不斷變化等等。

所以下一步,機(jī)器學(xué)習(xí)的研究或者應(yīng)用特別要關(guān)注研究新型深度模型、弱監(jiān)督學(xué)習(xí)以及開放環(huán)境的學(xué)習(xí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:周志華:關(guān)于機(jī)器學(xué)習(xí)的一點(diǎn)思考

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    C語言深度剖析 讓你進(jìn)一步了解C語言

    適合對(duì)C語言定基礎(chǔ)積累的童鞋 想進(jìn)一步學(xué)習(xí)C語言的 可以看哈
    發(fā)表于 09-10 22:26

    【OK210申請(qǐng)】嵌入式進(jìn)一步學(xué)習(xí)(想試著做個(gè)簡(jiǎn)單的平板玩玩)

    學(xué)校開設(shè)過嵌入式入門課程,但淺嘗輒止,而且學(xué)校的開發(fā)板式老舊的ARM2410S,在使用上有很多不便。我此次的主要目的是進(jìn)一步學(xué)習(xí)嵌入式,如果切順利,希望做個(gè)簡(jiǎn)單的小平板,也算為我
    發(fā)表于 06-24 17:06

    初學(xué)linux,安裝了Ubuntu系統(tǒng)界面,請(qǐng)教該如何進(jìn)一步快速學(xué)習(xí)

    初學(xué)linux,安裝了Ubuntu系統(tǒng)界面,請(qǐng)教該如何進(jìn)一步快速學(xué)習(xí),大家有什么好的初學(xué)的資料分享下,謝謝啦
    發(fā)表于 08-24 18:39

    手機(jī)射頻元件如何進(jìn)一步集成?

    、電視手機(jī)。這些采用多種RF技 術(shù)的手機(jī)在提供便利的同時(shí)也使得手機(jī)的設(shè)計(jì)變得復(fù)雜,如何進(jìn)一步集成射頻元件也變得至關(guān)重要。
    發(fā)表于 08-27 08:33

    【創(chuàng)龍TLZ7x-EasyEVM評(píng)估板試用連載】進(jìn)行進(jìn)一步學(xué)習(xí)和研究

    項(xiàng)目名稱:進(jìn)行進(jìn)一步學(xué)習(xí)和研究試用計(jì)劃:此前直從事單片機(jī)開發(fā),想進(jìn)一步深入學(xué)習(xí)各種MCU,看到有此活動(dòng),特來申請(qǐng)。也為下
    發(fā)表于 04-23 10:36

    進(jìn)一步理解量子力學(xué)經(jīng)典 多方面豐富相關(guān)圖表

    進(jìn)一步理解量子力學(xué)經(jīng)典理論與應(yīng)用 多方面豐富相關(guān)圖表為了進(jìn)一步深入理解量子力學(xué)理論經(jīng)典及其應(yīng)用,從多個(gè)方面豐富內(nèi)容,附圖頁碼致,符合國際標(biāo)準(zhǔn)。聲學(xué),聲波自然現(xiàn)象,以及經(jīng)典原子理論的應(yīng)用等對(duì)理解量子力學(xué)經(jīng)典之波的概念有益。大灣區(qū)
    發(fā)表于 08-02 07:05

    如何進(jìn)一步加強(qiáng)對(duì)RFID的安全隱私保護(hù)?

    如何進(jìn)一步加強(qiáng)對(duì)RFID的安全隱私保護(hù)?
    發(fā)表于 05-26 06:09

    如何讓計(jì)算機(jī)視覺更進(jìn)一步接近人類視覺?

    如何讓計(jì)算機(jī)視覺更進(jìn)一步接近人類視覺?
    發(fā)表于 06-01 06:27

    如何進(jìn)一步提高1302精度?

    GN1302 晶振引腳連接 2 個(gè) 30pf 電容,每天大約慢 4 秒,如何進(jìn)一步提高精度?時(shí)鐘每天慢 4 秒是因?yàn)榫д竦耐獠控?fù)載電容過大,即 30pf 電容過大。如果使用的晶振的負(fù)載電容參數(shù)為
    發(fā)表于 12-29 17:36

    STM8在待機(jī)模式如何進(jìn)一步降低功耗?

    什么方法可以進(jìn)一步降低待機(jī)模式的功耗
    發(fā)表于 10-12 07:23

    請(qǐng)問如何進(jìn)一步減小DTC控制系統(tǒng)的轉(zhuǎn)矩脈動(dòng)?

    如何進(jìn)一步減小DTC控制系統(tǒng)的轉(zhuǎn)矩脈動(dòng)?
    發(fā)表于 10-18 06:53

    在認(rèn)知智能領(lǐng)域,AI企業(yè)如何才能取得進(jìn)一步突破?

    在計(jì)算智能方面,機(jī)器早已遠(yuǎn)遠(yuǎn)超過人類。而在感知智能方面,機(jī)器也已達(dá)到可媲美人類的水平??拼笥嶏w在語音識(shí)別錯(cuò)誤率方面每年相對(duì)下降30%以上。在2018年CHiME-5國際多通道語音分離和識(shí)別大賽上,當(dāng)面對(duì)更難、更復(fù)雜的語音識(shí)別任務(wù)時(shí),科大訊飛依然獲得第
    的頭像 發(fā)表于 09-26 09:16 ?3292次閱讀

    制造商相繼在細(xì)分領(lǐng)域取得突破 食品工業(yè)中的機(jī)器人份額將進(jìn)一步提升

    日前,某調(diào)查機(jī)構(gòu)新發(fā)布篇2018-2019工業(yè)機(jī)器人市場(chǎng)報(bào)告。報(bào)告中顯示,2018年工業(yè)機(jī)器人市場(chǎng)小幅增長(zhǎng),預(yù)計(jì)2019年市場(chǎng)也將持續(xù)上行。尤其是受食品工業(yè)上升趨勢(shì)影響,工業(yè)機(jī)器人在
    發(fā)表于 12-30 15:08 ?580次閱讀

    歐司朗進(jìn)一步擴(kuò)大LED光源投影儀的市場(chǎng) 成功突破3000ANSI流明的壁壘

    近日,歐司朗發(fā)布了Ostar Projection Power 系列12款新產(chǎn)品,率先成功通過 LED而非傳統(tǒng)燈泡使投影儀亮度突破 3000 ANSI 流明大關(guān),進(jìn)一步擴(kuò)大了其 LED 光源投影儀的市場(chǎng)。
    發(fā)表于 01-09 11:49 ?2345次閱讀

    慕課嵌入式開發(fā)及應(yīng)用(第五章.進(jìn)一步學(xué)習(xí)指導(dǎo))

    慕課蘇州大學(xué).嵌入式開發(fā)及應(yīng)用.第五章.其他.進(jìn)一步學(xué)習(xí)指導(dǎo)0 目錄5 其他5.4 進(jìn)一步學(xué)習(xí)指導(dǎo)5.4.1 課堂重點(diǎn)5.4.2 測(cè)試與作業(yè)6 下
    發(fā)表于 11-03 11:51 ?10次下載
    慕課嵌入式開發(fā)及應(yīng)用(第五章.<b class='flag-5'>進(jìn)一步</b><b class='flag-5'>學(xué)習(xí)</b>指導(dǎo))