要不要用準(zhǔn)確性換可解釋性?這可能是許多資源有限的創(chuàng)業(yè)公司,在技術(shù)研發(fā)中面臨的重要問(wèn)題,同時(shí)也是機(jī)器學(xué)習(xí)可解釋性研究中的重要議題。
把場(chǎng)景具體化,讓我們先來(lái)看這樣一道選擇題。
如果你是一個(gè)投資公司老板,針對(duì)電話(huà)詐騙檢測(cè),現(xiàn)在有一個(gè)可信度85%,但無(wú)法解釋的“黑盒”模型,和一個(gè)可信度75%,但可解釋的機(jī)器學(xué)習(xí)模型擺在你面前,你會(huì)選擇哪一個(gè)?
但最初的最初,讓我們先來(lái)理清這兩個(gè)概念:自動(dòng)機(jī)器學(xué)習(xí)與可解釋機(jī)器學(xué)習(xí)。
理清概念
機(jī)器學(xué)習(xí)自動(dòng)化(AutoML):讓機(jī)器自己煉丹
王立威教授首先解釋了什么是機(jī)器學(xué)習(xí)自動(dòng)化。機(jī)器學(xué)習(xí)的應(yīng)用需要大量的人工干預(yù),比如特征提取、模型選擇、參數(shù)調(diào)節(jié)等,深度學(xué)習(xí)也被戲稱(chēng)為煉丹術(shù)。
而AutoML 是試圖將這些與特征、模型、優(yōu)化、評(píng)價(jià)有關(guān)的重要步驟進(jìn)行自動(dòng)化地學(xué)習(xí),實(shí)現(xiàn)從end to end 到learning to learn,使得機(jī)器學(xué)習(xí)模型無(wú)需人工干預(yù)即可被應(yīng)用。讓機(jī)器自己煉丹,讓深度學(xué)習(xí)自動(dòng)尋找最優(yōu)框架。
使用AutoML,就像是在使用一個(gè)工具,我們只需要將訓(xùn)練數(shù)據(jù)集傳入AutoML,那么這個(gè)工具就會(huì)自動(dòng)幫我們生成參數(shù)和模型,形成訓(xùn)練模型,這樣即使不具備機(jī)器學(xué)習(xí)方面深入的專(zhuān)業(yè)知識(shí)也可以進(jìn)行機(jī)器學(xué)習(xí)方面的工作。
可解釋機(jī)器學(xué)習(xí)(Explainable ML):信任之后人與機(jī)器才能更好地互動(dòng)
隨著AutoML學(xué)習(xí)模型的發(fā)展,機(jī)器學(xué)習(xí)的黑箱似乎在越來(lái)越大。這種缺乏解釋的情況既是一個(gè)現(xiàn)實(shí)問(wèn)題,也是一個(gè)倫理問(wèn)題。所以近年,很多研究者呼吁我們需要可解釋機(jī)器學(xué)習(xí)。
梅俏竹教授在解釋XML的時(shí)候強(qiáng)調(diào),辯題的核心還是在于AI和人的關(guān)系。我們大多同意未來(lái)的世界是AI與人共同合作,AI目前肯定還是做不到取代人。AutoML與XML其實(shí)并不矛盾,問(wèn)題在于合作中如何人要如何達(dá)成對(duì)于AI的信任。
基于人工智能的結(jié)果越重要,對(duì)可解釋人工智能的需求就越大。高風(fēng)險(xiǎn)的情況下,比如自動(dòng)駕駛和醫(yī)療領(lǐng)域,人們可能需要明確地解釋是如何得出特定結(jié)果的。而相對(duì)低風(fēng)險(xiǎn)的人工智能系統(tǒng)可能就更適合黑盒模型,人們很難理解其結(jié)果。
為什么說(shuō),機(jī)器學(xué)習(xí)中的可解釋性很重要
追逐解釋是人類(lèi)的天性
場(chǎng)景問(wèn)題是大家公認(rèn)的導(dǎo)致可解釋問(wèn)題重要的一個(gè)原因。我們可以容忍機(jī)器沒(méi)有理由地給我們錯(cuò)誤推薦了一首不喜歡的歌,但是把重大的投資問(wèn)題或者醫(yī)療建議交由機(jī)器決定的時(shí)候,我們希望可以得到充分的解釋說(shuō)明。
解釋是跨多個(gè)行業(yè)和科學(xué)學(xué)科的負(fù)責(zé)任的、開(kāi)放的數(shù)據(jù)科學(xué)的核心。
俞士綸教授提到對(duì)可解釋人工智能的需求與人類(lèi)的影響會(huì)同步上升,比如醫(yī)生應(yīng)用機(jī)器評(píng)估數(shù)據(jù)并得出決策數(shù)據(jù),但是機(jī)器無(wú)法回答病人的疑問(wèn)。以及在過(guò)濾假新聞的時(shí)候,機(jī)器在作出粗略判斷和初步篩選之后,還是需要人類(lèi)解釋其中細(xì)微差別。
Clever Hans問(wèn)題
Hans是一匹聰明的馬,人們以為它會(huì)計(jì)算加法,因?yàn)橛腥苏f(shuō)2+3的時(shí)候,它就會(huì)敲5下蹄子。但后來(lái)人們發(fā)現(xiàn),它只是單純地在敲蹄子,直到人們的表情發(fā)生改變就停下來(lái)。如果沒(méi)有可解釋性,任何人都無(wú)法保證高正確率模型其實(shí)只是另一匹Hans。
李興建工程師說(shuō)道,可解釋也是企業(yè)實(shí)際應(yīng)用非常關(guān)心的問(wèn)題。如果人工智能系統(tǒng)出錯(cuò),構(gòu)建者需要理解為什么會(huì)這樣做,這樣才能改進(jìn)和修復(fù)。如果他們的人工智能服務(wù)在黑盒中存在并運(yùn)行,他們就無(wú)法了解如何調(diào)試和改進(jìn)它。
可解釋也許是一個(gè)偽命題
有些事情是無(wú)法解釋?zhuān)膊恍枰忉?/strong>
但很有意思的事,解釋可能無(wú)法窮盡。
王立威教授提出一個(gè)有趣的例子。機(jī)器作出判斷,這是一只貓。如果我們要尋求解釋?zhuān)瑔?wèn)為什么這是一只貓,機(jī)器可能回答,因?yàn)樗衅っ?,有四只貓爪……我們?cè)賳?wèn),那為什么這是皮毛?
當(dāng)然機(jī)器還可以繼續(xù)解釋?zhuān)墙忉尩慕Y(jié)果可能會(huì)更加復(fù)雜,比直接告訴你這是皮毛要曲折得多。
人類(lèi)大腦是非常有限的,而現(xiàn)在的數(shù)據(jù)太多了。我們沒(méi)有那么多腦容量去研究所有東西的可解釋性。世界上有那么多應(yīng)用、網(wǎng)站,我們每天用 Facebook、Google 的時(shí)候,也不會(huì)想著去尋求它們背后的可解釋性。
對(duì)于醫(yī)療行業(yè)的可解釋機(jī)器學(xué)習(xí)的應(yīng)用王立威教授也提出完全不同的想法,他認(rèn)為只有在開(kāi)始階段,醫(yī)生不夠信任系統(tǒng)的時(shí)候可解釋才重要。而當(dāng)系統(tǒng)性能足夠優(yōu)化,可解釋就不再重要。在不可解釋上做的能超過(guò)人類(lèi),這就是未來(lái)機(jī)器學(xué)習(xí)的可為之處。
來(lái)自Geoffrey Hinton 的駁斥
Geoffrey Hinton 曾經(jīng)大膽宣稱(chēng),糾結(jié)深度學(xué)習(xí)(可與不可)解釋性問(wèn)題根本是一個(gè)偽命題。為什么一定要存在識(shí)別數(shù)字的理論才能證明我們擅長(zhǎng)識(shí)別數(shù)字?難道非要通透騎車(chē)每一個(gè)細(xì)節(jié)的物理力學(xué),才能證明自己會(huì)騎車(chē)?其實(shí)不是神經(jīng)網(wǎng)絡(luò)需要理論解釋?zhuān)侨祟?lèi)克制不住自己講故事的沖動(dòng),理論再合理也只是主觀判斷,并不能幫助我們理解為什么。
王立威教授表示贊同,以歷史做類(lèi)比。歷史書(shū)上簡(jiǎn)單歸納出的勝敗輸贏難道就是真實(shí)的歷史嗎,不過(guò)是人類(lèi)編造出的故事。真實(shí)的歷史復(fù)雜,現(xiàn)實(shí)生活復(fù)雜,只言片語(yǔ)的解釋和理論不過(guò)是管窺蠡測(cè)。
通過(guò)神經(jīng)網(wǎng)絡(luò)反思人的思維,同一個(gè)網(wǎng)絡(luò)框架,初始點(diǎn)不同結(jié)果可能完全不同。解釋可能會(huì)有兩套截然不同的解釋?zhuān)拖駥?duì)同一件事不同的人可能會(huì)有不同的解釋。
一個(gè)人都無(wú)法完全理解另一個(gè)人,更何況與人的思維完全不同的機(jī)器?即使把a(bǔ)lpha go下圍棋中的所有數(shù)據(jù)告訴人也沒(méi)有用,因?yàn)闄C(jī)器每一步的判斷所用的數(shù)據(jù)是百萬(wàn)量級(jí),而人最多處理到百的程度。就算打開(kāi)黑匣,一千個(gè)人可能會(huì)看到一千種解釋。
俞士綸教授認(rèn)為Hinton的說(shuō)法還是有些激進(jìn),解釋不僅是為了說(shuō)服,解釋的形式和含義都非常之廣,就算是autoML我們還是要朝著可解釋的方向不斷推進(jìn)。
梅俏竹教授則認(rèn)為單純討論autoML還是XML是沒(méi)有意義的,就像我們判斷autoML好不好,怎么算是一個(gè)好的推薦算法?如果機(jī)器中午十二點(diǎn)推薦你去吃午飯,的確它的準(zhǔn)確率是百分之百,但是對(duì)于用戶(hù)來(lái)說(shuō)這是完全沒(méi)有意義的一個(gè)推薦。評(píng)判需要加入人的因素進(jìn)行考量,還是要看人機(jī)配合得怎么樣,加入用戶(hù)體驗(yàn)。
autoML的能耗問(wèn)題:ACL論文痛批其撿芝麻丟西瓜
最近一份提交到自然語(yǔ)言處理頂會(huì)ACL 2019的論文引起熱議,研究人員對(duì)幾種常見(jiàn)的NLP模型進(jìn)行碳排放評(píng)估后發(fā)現(xiàn),像Transformer、GPT-2等流行的深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程可以排放超過(guò)62.6萬(wàn)磅的二氧化碳當(dāng)量,幾乎是美國(guó)汽車(chē)平均壽命期內(nèi)排放量(包括制造過(guò)程)的五倍。
某些模型可能經(jīng)過(guò)了千百次的訓(xùn)練之后取得最優(yōu)成果,但是實(shí)際進(jìn)展非常微小,而背后的代價(jià)是不成比例的計(jì)算量和碳排放。
李文鈺提出業(yè)界現(xiàn)在的解決辦法有比如共享參數(shù)、熱啟動(dòng),利用之前訓(xùn)練好的參數(shù),避免再?gòu)念^訓(xùn)練一個(gè)模型。
真正的autoML應(yīng)該是在大型數(shù)據(jù)集上搜索,操作類(lèi)型,拓?fù)浣Y(jié)構(gòu),加上人的先驗(yàn)知識(shí),未來(lái)希望找到又小又高效的好的模型。我們希望用機(jī)器代替節(jié)約人力,但是人也要去限制一些盲目搜索,節(jié)約成本的約束。
未來(lái)之路:煉金,觀星,算命都不可取
幾位教授最后都同意autoML和XML在未來(lái)是可以結(jié)合的。不管是autoML還是XML,現(xiàn)在還是在底層信號(hào)的層面運(yùn)作,比如識(shí)別圖像、文本,關(guān)鍵還是在知識(shí)層面,我們需要的是對(duì)整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)更高層、更進(jìn)一步的理解。
梅教授提出過(guò)猶不及,有三條走得太過(guò)的路是煉金、觀星和算命。
煉金就是走極端的autoML之路。不要為了全自動(dòng)就拋開(kāi)所有代價(jià)去追求自動(dòng)化,最后你也無(wú)法保證煉出來(lái)的是金子還是破鐵;
觀星,擴(kuò)大范圍,如果非要在一大堆的變量中拼命找聯(lián)系,總能找尋到一二;
而算命的原理是找一些你愿意聽(tīng)的說(shuō),講你愛(ài)聽(tīng)的故事,觀星和算命都是在可解釋的道路上走得太遠(yuǎn)。
最后的最后,梅教授也提醒大家,解釋性可以解釋部分問(wèn)題,關(guān)于倫理,關(guān)于道德,但是它不是萬(wàn)能藥。不要糾結(jié)于理解,為了理解而理解。
-
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8423瀏覽量
132745 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5506瀏覽量
121255
原文標(biāo)題:要強(qiáng)大的“黑匣子”,還是“可解釋”的機(jī)器學(xué)習(xí)?| 清華AI Time激辯
文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論