0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

讓機(jī)器學(xué)習(xí)模型不再是”黑盒子“

DPVg_AI_era ? 來源:lp ? 2019-03-12 09:31 ? 次閱讀

提高機(jī)器學(xué)習(xí)模型的可解釋性和透明度,將有助于模型的除錯、引導(dǎo)未來的數(shù)據(jù)收集方向、為特征構(gòu)建和人類決策提供真正可靠的信息,最終在人與模型之間建立信任。

過去幾年來,人工智能研究人員在圖像識別、自然語言理解和棋類等領(lǐng)域取得了重大突破。但由于缺乏對復(fù)雜機(jī)器學(xué)習(xí)模型的真正理解,導(dǎo)致模型在傳播時出現(xiàn)了偏見,這種偏見在零售、面部識別和語言理解等領(lǐng)域的應(yīng)用中出現(xiàn)了多次。

說到底,機(jī)器學(xué)習(xí)模型大多數(shù)時候仍然是“黑盒子”,很多時候可以拿來用,但具體原理并不十分清楚,即缺乏足夠的“可解釋性”。

什么是模型的”可解釋性“?不同人群定義不一樣

所謂模型的可解釋性,是指人類能夠在何種程度上一致地估計、理解并遵循模型的預(yù)測,以及在模型出錯時,在何種程度上能夠成功檢測到。

可解釋性對不同的人群有著不同的含義:

對于數(shù)據(jù)科學(xué)家來說,意味著更好地理解模型,掌握模型性能好壞情況以及原因。這些信息有助于數(shù)據(jù)科學(xué)家構(gòu)建性能更強(qiáng)大的模型。

對于業(yè)務(wù)利益相關(guān)者而言,模型具備可解釋性有助于深入了解為什么人工智能系統(tǒng)做出特定決定以確保公平性,維護(hù)用戶和品牌。

對于用戶來說,這意味著要理解模型做出決策的原因,并在模型出錯時允許進(jìn)行有意義的挑戰(zhàn)。

對于專家或監(jiān)管機(jī)構(gòu)來說,它意味著審核AI系統(tǒng)并遵循決策流程,尤其是在系統(tǒng)出現(xiàn)問題時。

微軟的團(tuán)隊(duì)數(shù)據(jù)科學(xué)流程(TDSP),其中一個重要環(huán)節(jié)就是對模型的理解

機(jī)器學(xué)習(xí)模型的可解釋性可以展示模型正在學(xué)習(xí)什么內(nèi)容,而洞悉模型的內(nèi)部,要比大多數(shù)人預(yù)想的更加有用。

在過去的10年里,我采訪了許多數(shù)據(jù)科學(xué)家,其中模型可解釋性技術(shù)是我最喜歡的主題,在這一問題上,甚至可以將最優(yōu)秀的數(shù)據(jù)科學(xué)家與普通科學(xué)家區(qū)分開來。

有些人認(rèn)為機(jī)器學(xué)習(xí)模型是黑盒子,可以做出預(yù)測,但卻無法理解。但最好的數(shù)據(jù)科學(xué)家知道如何從任何模型中提取出關(guān)于真實(shí)世界的見解。對于任何給定的模型,優(yōu)秀的數(shù)據(jù)科學(xué)家可以輕松回答類似下面的問題:

模型認(rèn)為哪些特征最重要?

對于來自模型的任何預(yù)測來說,數(shù)據(jù)的每個特征會對預(yù)測結(jié)果產(chǎn)生哪些影響?

不同特征之間的哪些相互作用對模型的預(yù)測結(jié)果影響最大?

回答這些問題比許多人意識到的更為廣泛。無論你是從Kaggle學(xué)習(xí)技術(shù)還是從統(tǒng)計學(xué)習(xí)元素這樣的綜合資源中學(xué)習(xí),這些技術(shù)都將徹底改變構(gòu)建,驗(yàn)證和部署機(jī)器學(xué)習(xí)模型的方式。

提高模型可解釋性有什么用?

關(guān)于模型的可解釋性技術(shù),以下是五個最重要的應(yīng)用方式:

調(diào)試

為模型特征構(gòu)建提供信息

指導(dǎo)未來的數(shù)據(jù)收集方向

為人類決策提供建議

在人與模型間建立信任

調(diào)試

世界上存在很多可靠性不高,雜亂無章、數(shù)量眾多的數(shù)據(jù)。在編寫預(yù)處理代碼時,這些數(shù)據(jù)可能會成為潛在的錯誤源頭,增加目標(biāo)泄漏的可能性,在實(shí)際數(shù)據(jù)科學(xué)項(xiàng)目中的某些時候出現(xiàn)錯誤可以說是一種常態(tài),而不是例外。

由于錯誤出現(xiàn)的頻率和潛在的災(zāi)難性后果,除錯是數(shù)據(jù)科學(xué)中最有價值的技能之一。了解模型發(fā)現(xiàn)的模式將幫助你確定,模型對現(xiàn)實(shí)世界的理解與你自己的觀點(diǎn)出現(xiàn)了不一致,而這通常是查找錯誤的第一步。

為模型的特征構(gòu)建提供信息

特征構(gòu)建通常是提高模型精度的最有效的方法。這個過程通常涉及使用原始數(shù)據(jù)或先前創(chuàng)建的特征的轉(zhuǎn)換重復(fù)創(chuàng)建新特征。

有時你可以只憑借關(guān)于底層主題的直覺來完成這個過程。但是,當(dāng)模型有100個原始特征或缺乏有關(guān)您正在處理的主題的背景知識時,就需要更多指引了。這時候,如果模型仍是黑盒子,不可解釋的,完成這一過程可能會非常困難,甚至是不可能的。

未來,隨著越來越多的數(shù)據(jù)集的原始特征數(shù)量達(dá)到成百上千的級別,這種方式無疑會變得越來越重要。

指導(dǎo)未來的數(shù)據(jù)收集方向

對于從網(wǎng)上下載的數(shù)據(jù)集,你并沒有控制能力。但是,許多利用數(shù)據(jù)科學(xué)的企業(yè)和組織都有機(jī)會擴(kuò)展其收集的數(shù)據(jù)類型。收集新類型的數(shù)據(jù)可能成本高昂,又不方便,因此只有在知道某類數(shù)據(jù)值得收集,他們才會去這樣做。

如果模型是可解釋的,就可以很好地理解當(dāng)前特征的價值,進(jìn)而更有可能推斷出哪些新型數(shù)據(jù)是最有用的,從而指導(dǎo)未來數(shù)據(jù)的收集方向。

為人類決策提供建議

有些決策行為是由模型自動完成的。比如,當(dāng)你訪問亞馬遜的網(wǎng)站時,你所看到的網(wǎng)頁內(nèi)容并不是由真人匆忙決定的。不過,確實(shí)許多重要的決定都是由人做出的。對于這些決策,觀點(diǎn)洞察可能比預(yù)測結(jié)果更有價值。

在人與模型間建立信任

在沒有驗(yàn)證一些基本事實(shí)的情況下,許多人認(rèn)為他們無法信任模型來進(jìn)行重要決策??紤]到數(shù)據(jù)出現(xiàn)錯誤的幾率,這是一個明智的預(yù)防措施。

在實(shí)際應(yīng)用中,如果模型顯示的結(jié)果符合他們對問題的一般見解,將有助于在人與模型間建立一種信任,即使對數(shù)據(jù)科學(xué)知之甚少的人而言也是如此。

不過,在Adrian Weller的一篇有趣的論文中,提出AI透明度應(yīng)該是實(shí)現(xiàn)目標(biāo)的手段,而不是目標(biāo)本身。Weller認(rèn)為,更高的模型透明度可能產(chǎn)生對所有人不利的結(jié)果,并可能使AI被惡意者濫用。

毫無疑問,AI系統(tǒng)必須足夠安全,并且能夠防范對抗性攻擊,這樣,討論模型的可解釋性和透明度才是有積極意義的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47282

    瀏覽量

    238534
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3244

    瀏覽量

    48847
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8418

    瀏覽量

    132654

原文標(biāo)題:告別AI模型黑盒子:可解釋性將是數(shù)據(jù)科學(xué)的下一個“超能力”

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    醫(yī)療領(lǐng)域,手術(shù)輔助機(jī)器人需要毫米級的精確控制,書中有介紹基于視覺伺服的實(shí)時控制算法,以及如何利用大模型優(yōu)化手術(shù)路徑規(guī)劃。工業(yè)場景中,協(xié)作機(jī)器人面臨的主要挑戰(zhàn)是快速適應(yīng)新工藝流程。具身智能通過在線
    發(fā)表于 12-24 15:03

    什么是機(jī)器學(xué)習(xí)?通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機(jī)器學(xué)習(xí)”最初的研究動機(jī)是計算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆]有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能
    的頭像 發(fā)表于 11-16 01:07 ?408次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    麻省理工學(xué)院推出新型機(jī)器人訓(xùn)練模型

    近日,據(jù)TechCrunch報道,麻省理工學(xué)院的研究團(tuán)隊(duì)展示了一種創(chuàng)新的機(jī)器人訓(xùn)練模型,該模型突破了傳統(tǒng)模仿學(xué)習(xí)方法的局限,不再依賴標(biāo)準(zhǔn)數(shù)據(jù)
    的頭像 發(fā)表于 11-04 14:56 ?496次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?745次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個方面存在顯著的區(qū)別。以下是對這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬億的參
    的頭像 發(fā)表于 10-23 15:01 ?631次閱讀

    構(gòu)建語音控制機(jī)器人 - 線性模型機(jī)器學(xué)習(xí)

    2024-07-31 |Annabel Ng 在該項(xiàng)目的[上一篇博客文章]中,我介紹了運(yùn)行機(jī)器人電機(jī)、處理音頻信號和調(diào)節(jié)電壓所需的電路的基礎(chǔ)知識。然而,機(jī)器人還沒有完全完成!盡管機(jī)器人可以正確移動
    的頭像 發(fā)表于 10-02 16:31 ?216次閱讀
    構(gòu)建語音控制<b class='flag-5'>機(jī)器</b>人 - 線性<b class='flag-5'>模型</b>和<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時間序列分析的基礎(chǔ)知識,更巧妙地展示了機(jī)器學(xué)習(xí)如何在這一領(lǐng)域發(fā)揮巨
    發(fā)表于 08-12 11:21

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識學(xué)習(xí)

    今天來學(xué)習(xí)大語言模型在自然語言理解方面的原理以及問答回復(fù)實(shí)現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語言處理技術(shù)。 大語言模型涉及以下幾個過程: 數(shù)據(jù)收集:大語言
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 俯瞰全書

    上周收到《大語言模型應(yīng)用指南》一書,非常高興,但工作項(xiàng)目繁忙,今天才品鑒體驗(yàn),感謝作者編寫了一部內(nèi)容豐富、理論應(yīng)用相結(jié)合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了一個我了解大語言模型機(jī)器
    發(fā)表于 07-21 13:35

    pycharm如何訓(xùn)練機(jī)器學(xué)習(xí)模型

    PyCharm是一個流行的Python集成開發(fā)環(huán)境(IDE),它提供了豐富的功能,包括代碼編輯、調(diào)試、測試等。在本文中,我們將介紹如何在PyCharm中訓(xùn)練機(jī)器學(xué)習(xí)模型。 一、安裝PyCharm
    的頭像 發(fā)表于 07-11 10:14 ?808次閱讀

    Al大模型機(jī)器

    豐富的知識儲備。它們可以涵蓋各種領(lǐng)域的知識,并能夠回答相關(guān)問題。靈活性與通用性: AI大模型機(jī)器人具有很強(qiáng)的靈活性和通用性,能夠處理各種類型的任務(wù)和問題。持續(xù)學(xué)習(xí)和改進(jìn): 這些模型可以
    發(fā)表于 07-05 08:52

    人工神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)機(jī)器學(xué)習(xí)模型的區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)(ANN)與傳統(tǒng)機(jī)器學(xué)習(xí)模型之間的不同,包括其原理、數(shù)據(jù)處理能力、學(xué)習(xí)方法、適用場景及未來發(fā)展趨勢等方面,以期為讀者提供一個全面的視角。
    的頭像 發(fā)表于 07-04 14:08 ?1301次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    在深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是模型
    的頭像 發(fā)表于 07-04 11:49 ?1317次閱讀

    大語言模型:原理與工程實(shí)踐+初識2

    前言 深度學(xué)習(xí)機(jī)器學(xué)習(xí)的分支,而大語言模型是深度學(xué)習(xí)的分支。機(jī)器
    發(fā)表于 05-13 00:09

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個簡單的機(jī)器學(xué)習(xí)模型。
    的頭像 發(fā)表于 01-08 09:25 ?990次閱讀
    如何使用TensorFlow構(gòu)建<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>