提高機(jī)器學(xué)習(xí)模型的可解釋性和透明度,將有助于模型的除錯、引導(dǎo)未來的數(shù)據(jù)收集方向、為特征構(gòu)建和人類決策提供真正可靠的信息,最終在人與模型之間建立信任。
過去幾年來,人工智能研究人員在圖像識別、自然語言理解和棋類等領(lǐng)域取得了重大突破。但由于缺乏對復(fù)雜機(jī)器學(xué)習(xí)模型的真正理解,導(dǎo)致模型在傳播時出現(xiàn)了偏見,這種偏見在零售、面部識別和語言理解等領(lǐng)域的應(yīng)用中出現(xiàn)了多次。
說到底,機(jī)器學(xué)習(xí)模型大多數(shù)時候仍然是“黑盒子”,很多時候可以拿來用,但具體原理并不十分清楚,即缺乏足夠的“可解釋性”。
什么是模型的”可解釋性“?不同人群定義不一樣
所謂模型的可解釋性,是指人類能夠在何種程度上一致地估計、理解并遵循模型的預(yù)測,以及在模型出錯時,在何種程度上能夠成功檢測到。
可解釋性對不同的人群有著不同的含義:
對于數(shù)據(jù)科學(xué)家來說,意味著更好地理解模型,掌握模型性能好壞情況以及原因。這些信息有助于數(shù)據(jù)科學(xué)家構(gòu)建性能更強(qiáng)大的模型。
對于業(yè)務(wù)利益相關(guān)者而言,模型具備可解釋性有助于深入了解為什么人工智能系統(tǒng)做出特定決定以確保公平性,維護(hù)用戶和品牌。
對于用戶來說,這意味著要理解模型做出決策的原因,并在模型出錯時允許進(jìn)行有意義的挑戰(zhàn)。
對于專家或監(jiān)管機(jī)構(gòu)來說,它意味著審核AI系統(tǒng)并遵循決策流程,尤其是在系統(tǒng)出現(xiàn)問題時。
微軟的團(tuán)隊(duì)數(shù)據(jù)科學(xué)流程(TDSP),其中一個重要環(huán)節(jié)就是對模型的理解
機(jī)器學(xué)習(xí)模型的可解釋性可以展示模型正在學(xué)習(xí)什么內(nèi)容,而洞悉模型的內(nèi)部,要比大多數(shù)人預(yù)想的更加有用。
在過去的10年里,我采訪了許多數(shù)據(jù)科學(xué)家,其中模型可解釋性技術(shù)是我最喜歡的主題,在這一問題上,甚至可以將最優(yōu)秀的數(shù)據(jù)科學(xué)家與普通科學(xué)家區(qū)分開來。
有些人認(rèn)為機(jī)器學(xué)習(xí)模型是黑盒子,可以做出預(yù)測,但卻無法理解。但最好的數(shù)據(jù)科學(xué)家知道如何從任何模型中提取出關(guān)于真實(shí)世界的見解。對于任何給定的模型,優(yōu)秀的數(shù)據(jù)科學(xué)家可以輕松回答類似下面的問題:
模型認(rèn)為哪些特征最重要?
對于來自模型的任何預(yù)測來說,數(shù)據(jù)的每個特征會對預(yù)測結(jié)果產(chǎn)生哪些影響?
不同特征之間的哪些相互作用對模型的預(yù)測結(jié)果影響最大?
回答這些問題比許多人意識到的更為廣泛。無論你是從Kaggle學(xué)習(xí)技術(shù)還是從統(tǒng)計學(xué)習(xí)元素這樣的綜合資源中學(xué)習(xí),這些技術(shù)都將徹底改變構(gòu)建,驗(yàn)證和部署機(jī)器學(xué)習(xí)模型的方式。
提高模型可解釋性有什么用?
關(guān)于模型的可解釋性技術(shù),以下是五個最重要的應(yīng)用方式:
調(diào)試
為模型特征構(gòu)建提供信息
指導(dǎo)未來的數(shù)據(jù)收集方向
為人類決策提供建議
在人與模型間建立信任
調(diào)試
世界上存在很多可靠性不高,雜亂無章、數(shù)量眾多的數(shù)據(jù)。在編寫預(yù)處理代碼時,這些數(shù)據(jù)可能會成為潛在的錯誤源頭,增加目標(biāo)泄漏的可能性,在實(shí)際數(shù)據(jù)科學(xué)項(xiàng)目中的某些時候出現(xiàn)錯誤可以說是一種常態(tài),而不是例外。
由于錯誤出現(xiàn)的頻率和潛在的災(zāi)難性后果,除錯是數(shù)據(jù)科學(xué)中最有價值的技能之一。了解模型發(fā)現(xiàn)的模式將幫助你確定,模型對現(xiàn)實(shí)世界的理解與你自己的觀點(diǎn)出現(xiàn)了不一致,而這通常是查找錯誤的第一步。
為模型的特征構(gòu)建提供信息
特征構(gòu)建通常是提高模型精度的最有效的方法。這個過程通常涉及使用原始數(shù)據(jù)或先前創(chuàng)建的特征的轉(zhuǎn)換重復(fù)創(chuàng)建新特征。
有時你可以只憑借關(guān)于底層主題的直覺來完成這個過程。但是,當(dāng)模型有100個原始特征或缺乏有關(guān)您正在處理的主題的背景知識時,就需要更多指引了。這時候,如果模型仍是黑盒子,不可解釋的,完成這一過程可能會非常困難,甚至是不可能的。
未來,隨著越來越多的數(shù)據(jù)集的原始特征數(shù)量達(dá)到成百上千的級別,這種方式無疑會變得越來越重要。
指導(dǎo)未來的數(shù)據(jù)收集方向
對于從網(wǎng)上下載的數(shù)據(jù)集,你并沒有控制能力。但是,許多利用數(shù)據(jù)科學(xué)的企業(yè)和組織都有機(jī)會擴(kuò)展其收集的數(shù)據(jù)類型。收集新類型的數(shù)據(jù)可能成本高昂,又不方便,因此只有在知道某類數(shù)據(jù)值得收集,他們才會去這樣做。
如果模型是可解釋的,就可以很好地理解當(dāng)前特征的價值,進(jìn)而更有可能推斷出哪些新型數(shù)據(jù)是最有用的,從而指導(dǎo)未來數(shù)據(jù)的收集方向。
為人類決策提供建議
有些決策行為是由模型自動完成的。比如,當(dāng)你訪問亞馬遜的網(wǎng)站時,你所看到的網(wǎng)頁內(nèi)容并不是由真人匆忙決定的。不過,確實(shí)許多重要的決定都是由人做出的。對于這些決策,觀點(diǎn)洞察可能比預(yù)測結(jié)果更有價值。
在人與模型間建立信任
在沒有驗(yàn)證一些基本事實(shí)的情況下,許多人認(rèn)為他們無法信任模型來進(jìn)行重要決策??紤]到數(shù)據(jù)出現(xiàn)錯誤的幾率,這是一個明智的預(yù)防措施。
在實(shí)際應(yīng)用中,如果模型顯示的結(jié)果符合他們對問題的一般見解,將有助于在人與模型間建立一種信任,即使對數(shù)據(jù)科學(xué)知之甚少的人而言也是如此。
不過,在Adrian Weller的一篇有趣的論文中,提出AI透明度應(yīng)該是實(shí)現(xiàn)目標(biāo)的手段,而不是目標(biāo)本身。Weller認(rèn)為,更高的模型透明度可能產(chǎn)生對所有人不利的結(jié)果,并可能使AI被惡意者濫用。
毫無疑問,AI系統(tǒng)必須足夠安全,并且能夠防范對抗性攻擊,這樣,討論模型的可解釋性和透明度才是有積極意義的。
-
人工智能
+關(guān)注
關(guān)注
1791文章
47282瀏覽量
238534 -
模型
+關(guān)注
關(guān)注
1文章
3244瀏覽量
48847 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8418瀏覽量
132654
原文標(biāo)題:告別AI模型黑盒子:可解釋性將是數(shù)據(jù)科學(xué)的下一個“超能力”
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論