“機器學習”“人工智能”“深度學習”這三個詞常常被人混淆,但其實它們出現(xiàn)的時間相隔甚遠,“人工智能”(Artificial Intelligence,AI)出現(xiàn)于20世紀50年代,“機器學習”(Machine Learning,ML)出現(xiàn)于20世紀80年代,而“深度學習”(Deep Learning,DL)則是近些年才出現(xiàn)的。三者是包含與被包含關(guān)系,如圖1-1所示。
▲圖1-1 人工智能、機器學習和深度學習的關(guān)系
業(yè)內(nèi)對于以上關(guān)系還有不同的見解,比如認為深度學習有部分內(nèi)容在機器學習范疇之外,此處不深究。
01 機器學習與人工智能
“人工智能”一詞出現(xiàn)在1956年的達特茅斯會議上,當時人工智能先驅(qū)的夢想是建造具有人類智能體的軟硬件系統(tǒng),該系統(tǒng)具有人類的智能特征,而這里所說的人工智能為“通用人工智能”。
這樣的人工智能夢想曾在影視作品中大放異彩,如電影《星球大戰(zhàn)》中的C-3PO機器人具有人類的理性和思考能力。不過,迄今為止,這種高層次的推理和思想仍然難以實現(xiàn),退而求其次,目前能夠落地的都屬于“狹義的人工智能”,如人臉識別等。
我們將機器學習描述為實現(xiàn)人工智能的一種方式方法。機器學習是基于已有數(shù)據(jù)、知識或經(jīng)驗自動識別有意義的模式。最基本的機器學習使用算法解析和學習數(shù)據(jù),然后在相似的環(huán)境里做出決定或預(yù)測。簡言之,即基于數(shù)據(jù)學習并做決策。這樣的描述將機器學習與傳統(tǒng)軟件或普通程序區(qū)分開來。
機器學習過程中,并沒有人為指示機器學習系統(tǒng)如何對未知環(huán)境做出決策或預(yù)測,這一過程由機器學習中的算法從數(shù)據(jù)中習得,做出決策的主體是機器學習算法,并且決策或預(yù)測是非確定性的結(jié)果,一般以概率的形式輸出,比如80%的可能性是晴天。
與之不同的是,常規(guī)的應(yīng)用程序需要軟件工程師一句句地編寫代碼(特定的指令集),指示程序或軟件做出確定的行為,比如輸出0和1分別表示注冊成功和失敗。做出決策的主體實際是人,程序只是執(zhí)行動作的工具。正因如此,機器學習可歸為間接編程,與之對應(yīng)的是常規(guī)編程。
02 機器學習與深度學習
深度學習使用多層(一般多于5層)人工神經(jīng)網(wǎng)絡(luò)學習數(shù)據(jù)內(nèi)部的復(fù)雜關(guān)系。人工神經(jīng)網(wǎng)絡(luò)是生物科學、認知科學等與人工智能結(jié)合的產(chǎn)物,在早期的機器學習中就已開始應(yīng)用,其初衷是在計算機中模擬人類大腦神經(jīng)元的工作模式。
人類大腦的神經(jīng)元在百億級別,通過突觸實現(xiàn)彼此交流,從計算的角度看屬于計算密集型,這限制了復(fù)雜人工神經(jīng)網(wǎng)絡(luò)在實踐中的應(yīng)用。計算機計算能力的大幅提升帶來了新的可能,2000年,多倫多大學的Geoffrey Hinton領(lǐng)導的研究小組在不懈研究下,終于在現(xiàn)代超級計算機中驗證了深度學習的多層網(wǎng)絡(luò)結(jié)構(gòu)。
Geoffrey Hinton因在深度學習領(lǐng)域做出巨大貢獻而被稱為深度學習的鼻祖,并與Yoshua Bengio、Yann LeCun并稱機器學習三巨頭。(三人因在深度學習領(lǐng)域的貢獻而榮獲2018年圖靈獎。
深度學習可被看作一種實現(xiàn)機器學習的技術(shù),是機器學習的子集。與深度學習相對,過去那些只有單層或少層的神經(jīng)網(wǎng)絡(luò)被稱為淺層學習。
對于機器學習的描述,也有專家調(diào)侃地發(fā)聲,以表明某種現(xiàn)象:當你募集資金時,這屬于人工智能;當你招聘時,這屬于機器學習;當你執(zhí)行時,這屬于線性回歸;當你調(diào)試時,這屬于printf()。
以上只從某個側(cè)面簡要描述了人工智能、機器學習和深度學習的關(guān)系,更全面的信息請讀者參考相關(guān)資料。
03 機器學習與統(tǒng)計學、大數(shù)據(jù)及數(shù)據(jù)科學
機器學習與傳統(tǒng)統(tǒng)計密不可分,兩者都是從數(shù)據(jù)中得出結(jié)論。統(tǒng)計學中首先提出數(shù)據(jù)空間假設(shè)(比如數(shù)據(jù)呈正態(tài)分布)下的參數(shù)化求解,同時關(guān)心樣本量增大至無窮時統(tǒng)計估計的收斂問題;機器學習則盡可能少地對數(shù)據(jù)分布做出假設(shè),而以算法作為關(guān)鍵,學習接近數(shù)據(jù)生成的模型,同時關(guān)注有限樣本下學習的性能(算法和模型表現(xiàn))。
機器學習與大數(shù)據(jù)也常常出現(xiàn)在同一場合。當某人提到大數(shù)據(jù)時,需要看此人背景才能明確其所說大數(shù)據(jù)的含義。
當此人是大數(shù)據(jù)相關(guān)技術(shù)人員、從技術(shù)角度描述大數(shù)據(jù)時,他往往指的是數(shù)據(jù)的存儲、分析、處理和計算的技術(shù),其難點并不在于具體的算法,而在于存儲、計算的分布式系統(tǒng)的層級問題。從行業(yè)中我們也能看到針對大量的數(shù)據(jù)建模往往使用相對簡單的算法。
相反,對于少量數(shù)據(jù),由于來之不易,往往會進行大量精細的分析和處理。我們很難根據(jù)某一天的天氣推測另一天的天氣狀況,但如果有大量的歷史天氣數(shù)據(jù),使用常規(guī)算法推測另一天的天氣狀況就會有較大把握。
在某種意義上,“大數(shù)據(jù)不難,小數(shù)據(jù)才難”有一定道理。當此人從業(yè)務(wù)角度描述大數(shù)據(jù)時,他往往指的是數(shù)據(jù),是基于數(shù)據(jù)的分析挖掘、運營以及產(chǎn)生業(yè)務(wù)價值的方法和策略。
當外行人說大數(shù)據(jù)時,他往往指的是海量數(shù)據(jù)、安全與隱私等更為直觀的概念。值得一提的是,在很多場景下,對于真正進入算法模型的數(shù)據(jù)量,我們需要自問:我們真的有大數(shù)據(jù)嗎?
當然,機器學習所用的數(shù)據(jù)來源于各個渠道,數(shù)據(jù)量是海量的,存儲于大數(shù)據(jù)平臺或大數(shù)據(jù)存儲系統(tǒng),從這個角度來看,機器學習是依賴于大數(shù)據(jù)的。另外,大數(shù)據(jù)(及其處理能力)也是傳統(tǒng)的數(shù)據(jù)分析建模向機器學習、深度學習轉(zhuǎn)變的關(guān)鍵。
機器學習與數(shù)據(jù)科學(Data Science)關(guān)系也非常緊密。在筆者看來,數(shù)據(jù)科學從數(shù)據(jù)的角度概括了數(shù)據(jù)有關(guān)的活動,涉及的范圍比機器學習更廣。數(shù)據(jù)工程、數(shù)據(jù)可視化、數(shù)據(jù)集成與ETL(提取、轉(zhuǎn)換和加載)、商業(yè)智能、數(shù)據(jù)產(chǎn)品、大數(shù)據(jù)等都可以歸入數(shù)據(jù)科學范疇。
責編AJX
-
人工智能
+關(guān)注
關(guān)注
1791文章
47278瀏覽量
238485 -
機器學習
+關(guān)注
關(guān)注
66文章
8418瀏覽量
132630 -
深度學習
+關(guān)注
關(guān)注
73文章
5503瀏覽量
121162
發(fā)布評論請先 登錄
相關(guān)推薦
評論