這一領(lǐng)域在其發(fā)展方向和原因上存在分歧。
自上世紀(jì)50年代以來,人工智能一再言過其實,卻未能兌現(xiàn)其承諾。盡管近年來,由于深度學(xué)習(xí),人工智能出現(xiàn)了令人難以置信的飛躍,但今天的人工智能仍然很狹隘:它在面對攻擊時很脆弱,不能泛化以適應(yīng)不斷變化的環(huán)境,而且充滿偏見。所有這些挑戰(zhàn)使得該技術(shù)難以被信任,并限制了其造福社會的潛力。
3月26日,在《麻省理工學(xué)院技術(shù)評論》(MIT Technology Review)的年度EmTech數(shù)字活動上,兩位人工智能領(lǐng)域的杰出人物走上虛擬舞臺,討論該領(lǐng)域如何克服這些問題。
加里·馬庫斯(Gary Marcus),紐約大學(xué)名譽教授,Robust.AI公司創(chuàng)始人兼CEO,是一位著名的深度學(xué)習(xí)批評家。在去年出版的《重啟人工智能》(Rebooting AI)一書中,他認(rèn)為人工智能的缺陷是這種技術(shù)固有的。因此,他認(rèn)為,研究人員必須超越深度學(xué)習(xí)的范疇,將其與經(jīng)典人工智能系統(tǒng)結(jié)合起來。經(jīng)典人工智能系統(tǒng)可以編碼知識,并具有推理能力。
丹尼·蘭格(Danny Lange)是Unity負(fù)責(zé)人工智能和機器學(xué)習(xí)的副總裁,他完全屬于深度學(xué)習(xí)陣營。他的職業(yè)生涯建立在這項技術(shù)的前景和潛力上,曾擔(dān)任優(yōu)步(Uber)的機器學(xué)習(xí)主管、亞馬遜(Amazon)的機器學(xué)習(xí)總經(jīng)理,以及微軟(Microsoft)專注于大規(guī)模機器學(xué)習(xí)的產(chǎn)品主管。在Unity,他現(xiàn)在幫助DeepMind和OpenAI等實驗室構(gòu)建虛擬訓(xùn)練環(huán)境,教它們的算法感知世界。
活動期間,每位演講者都做了一個簡短的陳述,然后坐下來進(jìn)行小組討論。他們表達(dá)的分歧反映了該領(lǐng)域內(nèi)的許多沖突,突顯出一場持久的理念之戰(zhàn)對技術(shù)的影響有多么強大,而該技術(shù)未來的發(fā)展方向又有多么不確定。
為了清楚起見,下面對他們的小組討論進(jìn)行了精簡和略加編輯。
加里,你利用你在神經(jīng)科學(xué)和心理學(xué)方面的專長找出了人工智能目前缺失的東西。你認(rèn)為是什么原因使得傳統(tǒng)的人工智能系統(tǒng)適合與深度學(xué)習(xí)相結(jié)合呢?
加里·馬庫斯:我要說的第一件事是,我們可能需要比深度學(xué)習(xí)和傳統(tǒng)人工智能更復(fù)雜的混合體。我們至少需要它。但可能有一大堆事情我們甚至還沒有想到過。我們需要保持開放的心態(tài)。
為什么要把經(jīng)典的人工智能加入其中呢?嗯,我們在世界上根據(jù)我們的知識進(jìn)行各種推理。深度學(xué)習(xí)并不能代表這一點。在這些系統(tǒng)中,沒有辦法來表示一個球是什么,一個瓶子是什么,以及這些東西對彼此有什么影響。所以結(jié)果看起來很好,但它們通常不是很普遍。
而這便是經(jīng)典AI所擅長的。例如,它可以將一個句子解析為它的語義表示,或者了解世界上正在發(fā)生的事情,然后做出推斷。但經(jīng)典AI也有自己的問題:它通常所能覆蓋的范圍并不夠,因為它有太多的人為定義等。但至少在原則上,這是我們所知道的唯一的方法,來建立一個系統(tǒng),它可以對抽象的知識進(jìn)行邏輯推理和歸納推理。這不意味著它是絕對正確的,但它是迄今為止我們擁有的最好的。
還有很多心理學(xué)上的證據(jù)表明人們可以做某種程度的象征性表征。在我之前的生活中,作為一個認(rèn)知發(fā)展學(xué)領(lǐng)域的人,我對7個月大的嬰兒做了實驗,結(jié)果表明這些嬰兒可以概括符號知識。如果一個7個月大的嬰兒就能做到這一點,那么為什么我們要摒棄我們先天的優(yōu)勢來構(gòu)建人工智能呢?
你見過成功地將深度學(xué)習(xí)和經(jīng)典人工智能結(jié)合起來的項目嗎?
GM:在我寫的一篇名為《人工智能的下一個十年》[1]的文章中,我列出了最近20個不同的項目,這些項目試圖將一些有深度學(xué)習(xí)和一些表征知識的混合模型組合在一起。一個大家都知道的例子是谷歌搜索。當(dāng)你輸入一個搜索查詢,有一些經(jīng)典的人工智能試圖消除有歧義的詞。它使用谷歌知識圖譜試圖找出當(dāng)你談?wù)摗鞍屠琛睍r,你是在談?wù)撆聋愃瓜栴D,巴黎,德克薩斯,還是巴黎,法國。然后,它使用深度學(xué)習(xí)來做一些其他的事情——例如,使用BERT模型[2]來查找同義詞。當(dāng)然,谷歌搜索并不是我們最終希望實現(xiàn)的人工智能,但它是一個非常可靠的證據(jù),證明這不是一個不可能的夢想。
丹尼,你同意我們應(yīng)該研究這些混合模型嗎?
丹尼·蘭格:不,我不同意。我對經(jīng)典人工智能的看法是,它試圖在非常深刻的意義上模仿人類的大腦。這讓我想起了,你知道,在18世紀(jì),如果你想要更快的交通,你會建造機械馬而不是發(fā)明內(nèi)燃機。所以我非常懷疑試圖通過模仿人類大腦來解決人工智能的問題。
深度學(xué)習(xí)不一定是靈丹妙藥,但如果你給它提供足夠的數(shù)據(jù),并且你有正確的神經(jīng)網(wǎng)絡(luò)架構(gòu),它就能夠?qū)W習(xí)我們?nèi)祟悷o法理解的抽象概念,這使系統(tǒng)在解決眾多廣泛任務(wù)時非常有效。
聽起來你們倆對人工智能的目標(biāo)有分歧。
GM:有點諷刺的是,去年12月,我與約舒亞·本吉歐(yobengio)進(jìn)行了一場辯論。本吉歐說,深度學(xué)習(xí)必須以神經(jīng)學(xué)為基礎(chǔ)。所以我從深度學(xué)習(xí)中聽到了兩個相反的極端。這有點奇怪,我認(rèn)為我們不應(yīng)該對這些論點太當(dāng)真。
相反,我們應(yīng)該說:“經(jīng)典AI中的符號知識能幫助到我們嗎?”答案絕對是肯定的。世界上幾乎所有的軟件都是建立在符號基礎(chǔ)上的。然后你不得不說,“從經(jīng)驗上講,深度學(xué)習(xí)的東西能達(dá)到我們想要的效果嗎?”“到目前為止,問題是它沒有模型。Vicarious(一家以人工智能為動力的工業(yè)機器人初創(chuàng)公司)展示了一款非常受歡迎的雅達(dá)利(Atari)游戲?qū)W習(xí)系統(tǒng)[3]。但是當(dāng)Vicarious將球拍移動了幾個像素后,整個游戲就崩潰了,因為它的學(xué)習(xí)水平實在是太淺了。它沒有球拍、球、磚頭的概念。而符號算法可以很容易地彌補這些缺陷。
研究人類的原因是,人類在某些方面做得比深度學(xué)習(xí)系統(tǒng)好得多。這并不意味著人類將最終成為正確的模型。我們想要的系統(tǒng)有一些電腦的屬性,也有一些從人那里學(xué)來的屬性。我們不希望因為人的記憶力差所以人工智能系統(tǒng)記憶力也差。但是,由于人是自然界中唯一能夠?qū)δ臣庐a(chǎn)生深刻理解的模型——確切地說,是我們所擁有的唯一模型——我們需要認(rèn)真對待這個模型。
DL:對,世界上的編程語言都是以符號為基礎(chǔ)的,這是事實,因為它們是為人類實現(xiàn)自己的想法而設(shè)計的。
深度學(xué)習(xí)不是人腦的復(fù)制。也許你可以說它是受到了神經(jīng)學(xué)的啟發(fā),但它只是一個軟件。我們還沒有真正深入到深度學(xué)習(xí)。到目前為止,我們只有有限的訓(xùn)練數(shù)據(jù)。我們有有限的結(jié)構(gòu)和有限的計算能力。但關(guān)鍵是深度學(xué)習(xí)的學(xué)習(xí)概念,學(xué)習(xí)特征。這不是人類設(shè)計的東西。我認(rèn)為Gary的方法和我的方法最大的區(qū)別是人類工程師是給系統(tǒng)提供智能還是系統(tǒng)自己學(xué)習(xí)智能。
丹尼,你提到由于數(shù)據(jù)和計算的局限性,我們還沒有真正看到深度學(xué)習(xí)的潛力。既然深度學(xué)習(xí)效率如此之低,我們難道不應(yīng)該開發(fā)新技術(shù)嗎?為了開發(fā)新的深度學(xué)習(xí)能力,我們不得不大幅增加計算能力。
DLs:深度學(xué)習(xí)的問題之一是,到目前為止,它實際上是基于一種傳統(tǒng)的方法:你生成一個大的訓(xùn)練數(shù)據(jù)集,然后把它輸入。一件可以真正提高深度學(xué)習(xí)的事情是有一個積極的學(xué)習(xí)過程,在這個過程中,網(wǎng)絡(luò)被訓(xùn)練來優(yōu)化訓(xùn)練數(shù)據(jù)。你不需要輸入大量的數(shù)據(jù)來改善學(xué)習(xí)過程??梢圆粩嗾{(diào)整訓(xùn)練數(shù)據(jù),以針對特定的領(lǐng)域。
加里,你指出了深度學(xué)習(xí)在面對偏見和對抗性攻擊時的弱點。丹尼,你提到了合成數(shù)據(jù)是解決這個問題的辦法,因為“沒有偏見”,你可以運行數(shù)百萬次模擬,以消除對手的弱點。你們對此有何回應(yīng)?
GM:僅僅依靠數(shù)據(jù)還不能解決問題。合成數(shù)據(jù)無法幫助解決貸款中的偏見或工作面試中的偏見等問題。真正的問題是,這些制度有一種傾向,會使那些由于歷史原因而存在的偏見永久化。與建立足夠復(fù)雜的系統(tǒng)來理解我們試圖取代的文化偏見相比,人工數(shù)據(jù)顯然不是解決方案。
對抗性攻擊是另一回事。數(shù)據(jù)可能有助于解決其中的一些問題,但到目前為止,我們還沒有真正消除許多不同類型的對抗性攻擊。之前我的文章中有提到棒球它被描述為濃縮咖啡。如果有人事先想好要在模擬中用意式濃縮咖啡做棒球,然后仔細(xì)地給它們貼上標(biāo)簽,那很好??倳幸恍]人想到的情況。一個純粹由數(shù)據(jù)驅(qū)動的系統(tǒng)將繼續(xù)受到攻擊。
DL:不管你做什么,現(xiàn)實世界的數(shù)據(jù)都是有偏見的。你在特定的環(huán)境中收集數(shù)據(jù),比如自動駕駛汽車,可能有90%的成年人和10%的兒童在街上。這是正態(tài)分布。但是一個機器學(xué)習(xí)系統(tǒng)需要訓(xùn)練足夠多的數(shù)據(jù)以避免撞上成人或兒童中的任何一個。有了合成數(shù)據(jù)(模擬數(shù)據(jù)),如果你小心的話,基本上就能平衡和避免偏差。這并不意味著你不能制造新的偏見。你得小心點。當(dāng)然,還解決了隱私問題,因為任何訓(xùn)練數(shù)據(jù)中都沒有真實的人或真實的孩子。
至于對抗性的例子,它們的問題是,它們基本上是在弱計算機視覺模型的基礎(chǔ)上開發(fā)的——這些模型已經(jīng)訓(xùn)練了1000萬或2000萬張圖像,比如來自ImageNet的圖像。這遠(yuǎn)遠(yuǎn)不足以概括一個模型。我們需要大量的數(shù)據(jù)集和大量的領(lǐng)域隨機化來概括這些計算機視覺模型,這樣它們就不會被愚弄。
你對人工智能的未來最感興趣的是什么?
GM:去年確實出現(xiàn)了向混合動力汽車發(fā)展的趨勢。人們正在探索以前沒有的新事物,這很令人興奮。
DL:我認(rèn)為這是一個多模型系統(tǒng),是由許多不同的感知和行為模型組成的系統(tǒng),用來解決真正復(fù)雜的任務(wù)。
責(zé)任編輯:Ct
評論
查看更多