0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用于解釋神經(jīng)網(wǎng)絡(luò)的方法是如何發(fā)展的?

中科院長春光機所 ? 來源:新智元 ? 作者:新智元 ? 2020-12-23 10:23 ? 次閱讀

過去11年中用于解釋神經(jīng)網(wǎng)絡(luò)最新方法是如何發(fā)展的呢?

本文在 Inception 網(wǎng)絡(luò)圖像分類器上嘗試使用引導(dǎo)反向傳播進行解釋演示。

為什么「解釋」很重要?

使用機器學(xué)習(xí)(ML)算法(尤其是現(xiàn)代深度學(xué)習(xí))進行圖像識別的最大挑戰(zhàn)之一,是難以理解為什么一個特定的輸入圖像會產(chǎn)生它所預(yù)測的結(jié)果。

ML模型的用戶通常想了解圖像的哪些部分是預(yù)測中的重要因素。這些說明或“解釋”之所以有價值,有很多原因:

機器學(xué)習(xí)開發(fā)人員可以分析調(diào)試模型的解釋,識別偏差,并預(yù)測模型是否可能推廣到新的圖像

如果提供了為何做出特定預(yù)測的解釋,則機器學(xué)習(xí)模型的用戶可能會更信任模型

像 GDPR 這樣圍繞機器學(xué)習(xí)的規(guī)則要求一些算法決策能夠用人類的術(shù)語來解釋

因此,至少從2009年開始,研究人員就開發(fā)了許多不同的方法來打開深度學(xué)習(xí)的“黑匣子”,從而使基礎(chǔ)模型更容易解釋。

下面,我們?yōu)檫^去十年中最先進的圖像解釋技術(shù)整合了視覺界面,并對每種技術(shù)進行了簡要描述。

我們使用了許多很棒的庫,但是特別依賴 Gradio 來創(chuàng)建你在下面的 gif 文件和 PAIR-code 的 TensorFlow 實現(xiàn)中看到的接口

用于所有接口的模型是Inception Net圖像分類器,可以在此jupyter筆記本和Colab上找到復(fù)制此博客文章的完整代碼。

在我們深入研究論文之前,讓我們先從一個非?;镜乃惴ㄩ_始。

七種不同的解釋方法

Leave-one-out (LOO)

Leave-one-out (LOO)是最容易理解的方法之一。如果你想了解圖像的哪個部分負責(zé)預(yù)測,這可能會是你想到的第一個算法。

其思想是首先將輸入圖像分割成一組較小的區(qū)域,然后,運行多個預(yù)測,每次都屏蔽一個區(qū)域。根據(jù)每個區(qū)域的「被屏蔽」對輸出的影響程度,為每個區(qū)域分配一個重要性分?jǐn)?shù)。這些分?jǐn)?shù)是對哪個區(qū)域最負責(zé)預(yù)測的量化。

這種方法很慢,因為它依賴于運行模型的許多迭代,但是它可以生成非常準(zhǔn)確和有用的結(jié)果。上面是杜賓狗的圖片示例。

LOO是Gradio庫中的默認(rèn)解釋技術(shù),完全不需要訪問模型的內(nèi)部——這是一個很大的優(yōu)點。

Vanilla Gradient Ascent [2009 and 2013]

Paper: Visualizing Higher-Layer Features of a Deep Network [2009]

Paper: Visualizing Image Classification Models and Saliency Maps [2013]

這兩篇論文的相似之處在于,它們都通過使用梯度上升來探索神經(jīng)網(wǎng)絡(luò)的內(nèi)部。換句話說,它們認(rèn)為對輸入或激活的微小更改將增加預(yù)測類別的可能性。

第一篇論文將其應(yīng)用于激活,作者報告說,「有可能找到對高級特征的良好定性解釋, 我們證明,也許是違反直覺的,但這種解釋在單位水平上是可能的,它很容易實現(xiàn),并且各種技術(shù)的結(jié)果是一致的?!?/p>

第二種方法也采用梯度上升,但是直接對輸入圖像的像素點進行探測,而不是激活。

作者的方法「計算特定于給定圖像和類的類顯著性圖,這樣的地圖可以使用分類ConvNets用于弱監(jiān)督的對象分割?!?/p>

Guided Back-Propogation [2014]

Paper: Striving for Simplicity: The All Convolutional Net [2014]

本文提出了一種新的完全由卷積層構(gòu)成的神經(jīng)網(wǎng)絡(luò)。由于以前的解釋方法不適用于他們的網(wǎng)絡(luò),因此他們引入了引導(dǎo)式反向傳播。

該反向傳播可在進行標(biāo)準(zhǔn)梯度上升時過濾掉傳播時產(chǎn)生的負激活。作者稱,他們的方法「可以應(yīng)用于更廣泛的網(wǎng)絡(luò)結(jié)構(gòu)。」

接下來是梯度加權(quán)類激活映射(gradient-weighted class activation mapping,Grad-CAM) 。它利用「任何目標(biāo)概念的梯度,流入最后的卷積層,生成一個粗糙的定位映射,突出圖像中的重要區(qū)域,以預(yù)測概念?!?/p>

該方法的主要優(yōu)點是進一步推廣了可以解釋的神經(jīng)網(wǎng)絡(luò)類(如分類網(wǎng)絡(luò)、字幕和可視化問答(VQA)模型) ,以及一個很好的后處理步驟,圍繞圖像中的關(guān)鍵對象對解釋進行集中和定位。

像前面的論文一樣,此方法從計算類評分函數(shù)相對于輸入圖像的梯度開始。

但是,SmoothGrad通過在輸入圖像中添加噪聲,然后針對圖像的這些擾動版本中的每一個來計算梯度,從而在視覺上銳化這些基于梯度的靈敏度圖。將靈敏度圖平均在一起可以得到更清晰的結(jié)果。

Integrated Gradients [2017]

Paper: Axiomatic Attribution for Deep Networks [2017]

不同于以往的論文,本文的作者從解釋的理論基礎(chǔ)入手。它們「確定了歸因方法應(yīng)該滿足的兩個基本公理——敏感性和實現(xiàn)不變性」。

他們用這些原理來指導(dǎo)設(shè)計一種新的歸屬方法(稱為綜合梯度),該方法可以產(chǎn)生高質(zhì)量的解釋,同時仍然只需要訪問模型的梯度; 但是它添加了一個「基線」超參數(shù),這可能影響結(jié)果的質(zhì)量。

Blur Integrated Gradients [2020]

Paper: Attribution in Scale and Space [2020]

論文研究了一個最新技術(shù)---- 這種方法被提出來用于解決具體的問題,包括消除「基線」參數(shù),移除某些在解釋中傾向于出現(xiàn)的視覺偽影。

此外,它還「在尺度/頻率維度上產(chǎn)生分?jǐn)?shù)」,本質(zhì)上提供了圖像中重要物體的尺度感。

下面這張圖比較了所有這些方法:

原文標(biāo)題:圖像識別的可視化解釋史

文章出處:【微信公眾號:中科院長春光機所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:圖像識別的可視化解釋史

文章出處:【微信號:cas-ciomp,微信公眾號:中科院長春光機所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?203次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)<b class='flag-5'>方法</b>

    怎么對神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)是一個復(fù)雜的過程,涉及到多個步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡(luò)是一種強大的機器學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、自然語言處理、語音識別等領(lǐng)域。然而,隨著時間的推移,數(shù)據(jù)分布可能會
    的頭像 發(fā)表于 07-11 10:25 ?503次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)的實現(xiàn)方法

    (Recurrent Neural Network,通常也簡稱為RNN,但在此處為區(qū)分,我們將循環(huán)神經(jīng)網(wǎng)絡(luò)稱為Recurrent RNN)不同,遞歸神經(jīng)網(wǎng)絡(luò)更側(cè)重于處理樹狀或圖結(jié)構(gòu)的數(shù)據(jù),如句法分析樹、自然語言的語法結(jié)構(gòu)等。以下將從遞歸
    的頭像 發(fā)表于 07-10 17:02 ?364次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展
    的頭像 發(fā)表于 07-10 15:20 ?1250次閱讀

    神經(jīng)網(wǎng)絡(luò)預(yù)測模型的構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)模型作為一種強大的預(yù)測工具,廣泛應(yīng)用于各種領(lǐng)域,如金融、醫(yī)療、交通等。本文將詳細介紹神經(jīng)網(wǎng)絡(luò)預(yù)測模型的構(gòu)建方法,包括模型設(shè)計、數(shù)據(jù)集準(zhǔn)備、模型訓(xùn)練、驗證與評估等步驟,并附以代碼
    的頭像 發(fā)表于 07-05 17:41 ?768次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?621次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實際上是同一個概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?846次閱讀

    深度神經(jīng)網(wǎng)絡(luò)的設(shè)計方法

    結(jié)構(gòu)的構(gòu)建,還包括激活函數(shù)的選擇、優(yōu)化算法的應(yīng)用、正則化技術(shù)的引入等多個方面。本文將從網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計、關(guān)鍵組件選擇、優(yōu)化與正則化策略、以及未來發(fā)展趨勢四個方面詳細探討深度神經(jīng)網(wǎng)絡(luò)的設(shè)計方法
    的頭像 發(fā)表于 07-04 13:13 ?522次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    網(wǎng)絡(luò)結(jié)構(gòu),分別適用于不同的應(yīng)用場景。本文將從基本概念、結(jié)構(gòu)組成、工作原理及應(yīng)用領(lǐng)域等方面對這兩種神經(jīng)網(wǎng)絡(luò)進行深入解讀。
    的頭像 發(fā)表于 07-03 16:12 ?3604次閱讀

    bp神經(jīng)網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    Network)有相似之處,但它們之間還是存在一些關(guān)鍵的區(qū)別。 一、引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)的計算模型,它由大量的神經(jīng)元(或稱為節(jié)點)組成,這些神經(jīng)元通過權(quán)重連接在一起
    的頭像 發(fā)表于 07-03 10:14 ?921次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)分類方法有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測、語義分割等計算機視覺任務(wù)。本文將詳細介紹卷積神經(jīng)網(wǎng)絡(luò)的分類
    的頭像 發(fā)表于 07-03 09:40 ?523次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之一。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?4605次閱讀

    神經(jīng)網(wǎng)絡(luò)在數(shù)學(xué)建模中的應(yīng)用

    數(shù)學(xué)建模是一種利用數(shù)學(xué)方法和工具來描述和分析現(xiàn)實世界問題的過程。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)和功能的計算模型,可以用于解決各種復(fù)雜問題。在數(shù)學(xué)建模中,
    的頭像 發(fā)表于 07-02 11:29 ?1048次閱讀

    基于神經(jīng)網(wǎng)絡(luò)算法的模型構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)是一種強大的機器學(xué)習(xí)算法,廣泛應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、語音識別等。本文詳細介紹了基于神經(jīng)網(wǎng)絡(luò)算法的模型構(gòu)建方法,包括數(shù)據(jù)預(yù)處理、
    的頭像 發(fā)表于 07-02 11:21 ?622次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運作方式,通過復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實現(xiàn)信息的處理、存儲和傳遞。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,各種
    的頭像 發(fā)表于 07-01 14:16 ?827次閱讀