0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

訓(xùn)練表示學(xué)習(xí)函數(shù)(即編碼器)以最大化其輸入和輸出之間的互信息

MqC7_CAAI_1981 ? 來(lái)源:未知 ? 作者:李倩 ? 2018-09-11 16:51 ? 次閱讀

許多表示學(xué)習(xí)算法使用像素級(jí)的訓(xùn)練目標(biāo),當(dāng)只有一小部分信號(hào)在語(yǔ)義層面上起作用時(shí)是不利的。在這篇論文中,Bengio 等研究者假設(shè)應(yīng)該更直接地根據(jù)信息內(nèi)容和統(tǒng)計(jì)或架構(gòu)約束來(lái)學(xué)習(xí)表示,據(jù)此提出了 Deep INFOMAX(DIM)。該方法可用于學(xué)習(xí)期望特征的表示,并且在分類任務(wù)上優(yōu)于許多流行的無(wú)監(jiān)督學(xué)習(xí)方法。他們認(rèn)為,這是學(xué)習(xí)「好的」和更條理的表示的一個(gè)重要方向,有利于未來(lái)的人工智能研究。

引言

在意識(shí)層面上,智能體并不在像素和其他傳感器的層面上進(jìn)行預(yù)測(cè)和規(guī)劃,而是在抽象層面上進(jìn)行預(yù)測(cè)。因?yàn)檎Z(yǔ)義相關(guān)的比特?cái)?shù)量(在語(yǔ)音中,例如音素、說(shuō)話者的身份、韻律等)只是原始信號(hào)中總比特?cái)?shù)的一小部分,所以這樣可能更合適。

然而,大多數(shù)無(wú)監(jiān)督機(jī)器學(xué)習(xí)(至少是部分地)基于定義在輸入空間中的訓(xùn)練目標(biāo)。由于無(wú)需捕獲少數(shù)語(yǔ)義相關(guān)的比特,就可以很好地優(yōu)化這些目標(biāo),因此它們可能不會(huì)產(chǎn)生好的表示。深度學(xué)習(xí)的核心目標(biāo)之一是發(fā)現(xiàn)「好的」表示,所以我們會(huì)問(wèn):是否有可能學(xué)習(xí)輸入空間中未定義的訓(xùn)練目標(biāo)的表示呢?本文探討的簡(jiǎn)單想法是訓(xùn)練表示學(xué)習(xí)函數(shù)(即編碼器)以最大化其輸入和輸出之間的互信息。

互信息是出了名的難計(jì)算,特別是在連續(xù)和高維設(shè)置中。幸運(yùn)的是,在神經(jīng)估計(jì)的最新進(jìn)展中,已經(jīng)能夠有效計(jì)算深度神經(jīng)網(wǎng)絡(luò)的高維輸入/輸出對(duì)之間的互信息。而在本項(xiàng)研究中,研究人員利用這些技術(shù)進(jìn)行表示學(xué)習(xí)。然而,最大化完全輸入與其表示之間的互信息(即全局互信息)不足以學(xué)習(xí)有用的表示,這依賴于下游任務(wù)。相反,最大化輸入的表示和局部區(qū)域之間的平均互信息可以極大地改善例如分類任務(wù)的表示質(zhì)量,而全局互信息在給定表示的重建完整輸入上能發(fā)揮更大的作用。

表示的作用不僅僅體現(xiàn)在信息內(nèi)容的問(wèn)題上,架構(gòu)等表示特征也非常重要。因此,研究者以類似于對(duì)抗性自編碼器或 BiGAN 的方式將互信息最大化與先驗(yàn)匹配相結(jié)合,以獲得具有期望約束的表示,以及良好的下游任務(wù)表現(xiàn)。該方法接近 INFOMAX 優(yōu)化原則,因此研究者們將他們的方法稱為深度 INFOMAX(DIM)。

本研究貢獻(xiàn)如下:

規(guī)范化的深度 INFOMAX(DIM),它使用互信息神經(jīng)估計(jì)(MINE)來(lái)明確地最大化輸入數(shù)據(jù)和學(xué)習(xí)的高級(jí)表示之間的互信息。

互信息最大化可以優(yōu)先考慮全局或局部一致的信息,這些信息可以用于調(diào)整學(xué)習(xí)表示的適用性,以進(jìn)行分類或風(fēng)格重建的任務(wù)。

研究者使用對(duì)抗學(xué)習(xí)來(lái)約束「具有特定于先驗(yàn)的期望統(tǒng)計(jì)特征」的表示。

引入了兩種新的表示質(zhì)量的度量,一種基于 MINE,另一種是 Brakel&Bengio 研究的的依賴度量,研究者用它們來(lái)比較不同無(wú)監(jiān)督方法的表示。

論文:Learning deep representations by mutual information estimation and maximization

論文地址:https://arxiv.org/abs/1808.06670v2

摘要:許多流行的表示學(xué)習(xí)算法使用在觀察數(shù)據(jù)空間上定義的訓(xùn)練目標(biāo),我們稱之為像素級(jí)。當(dāng)只有一小部分信號(hào)在語(yǔ)義層面上起作用時(shí),這可能是不利的。我們假設(shè)應(yīng)該更直接地根據(jù)信息內(nèi)容和統(tǒng)計(jì)或架構(gòu)約束來(lái)學(xué)習(xí)和估計(jì)表示。為了解決第一個(gè)質(zhì)量問(wèn)題,研究者考慮通過(guò)最大化部分或全部輸入與高級(jí)特征向量之間的互信息來(lái)學(xué)習(xí)無(wú)監(jiān)督表示。為了解決第二個(gè)問(wèn)題,他們通過(guò)對(duì)抗地匹配先驗(yàn)來(lái)控制表示特征。他們稱之為 Deep INFOMAX(DIM)的方法可用于學(xué)習(xí)期望特征的表示,并且在分類任務(wù)按經(jīng)驗(yàn)結(jié)果優(yōu)于許多流行的無(wú)監(jiān)督學(xué)習(xí)方法。DIM 開辟了無(wú)人監(jiān)督學(xué)習(xí)表示的新途徑,是面向特定最終目標(biāo)而靈活制定表征學(xué)習(xí)目標(biāo)的重要一步。

實(shí)驗(yàn)

我們使用以下指標(biāo)來(lái)評(píng)估表示。下面編碼器都固定不變,除非另有說(shuō)明:

使用支持向量機(jī)(SVM)進(jìn)行線性分類。它同時(shí)代表具有線性可分性的表示的互信息。

使用有 dropout 的單個(gè)隱藏層神經(jīng)網(wǎng)絡(luò)(200 個(gè)單元)進(jìn)行非線性分類。這同樣代表表示的互信息,其中標(biāo)簽與線性可分性分開,如上面的 SVM 所測(cè)的。

半監(jiān)督學(xué)習(xí),即通過(guò)在最后一個(gè)卷積層(有標(biāo)準(zhǔn)分類器的匹配架構(gòu))上添加一個(gè)小型神經(jīng)網(wǎng)絡(luò)來(lái)微調(diào)整個(gè)編碼器,以進(jìn)一步評(píng)估半監(jiān)督任務(wù)(STL-10)。

MS-SSIM,使用在 L2 重建損失上訓(xùn)練的解碼器。這代表輸入和表示之間的全部互信息,并且可以表明編碼的像素級(jí)信息的數(shù)量。

通過(guò)訓(xùn)練參數(shù)為ρ的判別器來(lái)最大化 KL 散度的 DV 表示,來(lái)表示輸入 X 和輸出表示 Y 之間的互信息神經(jīng)估計(jì)(MINE),I_ρ(X,Y)。

神經(jīng)依賴度量(NDM)使用第二判別器來(lái)度量 Y 和分批再組(batch-wise shuffled)的 Y 之間的 KL 散度,使得不同的維度相互獨(dú)立。

表 1:CIFAR10 和 CIFAR100 的分類準(zhǔn)確率(top-1)結(jié)果。DIM(L)(僅局部目標(biāo))顯著優(yōu)于之前提出的所有其他無(wú)監(jiān)督方法。此外,DIM(L)接近甚至超過(guò)具有類似架構(gòu)的全監(jiān)督分類器。具有全局目標(biāo)的 DIM 表現(xiàn)與任務(wù)中的某些模型相似,但不如 CIFAR100 上的生成模型和 DIM(L)。表中提供全監(jiān)督分類結(jié)果用于比較。

表 2:Tiny ImageNet 和 STL-10 的分類準(zhǔn)確率(top-1)結(jié)果。對(duì)于 Tiny ImageNet,具有局部目標(biāo)的 DIM 優(yōu)于所有其他模型,并且接近全監(jiān)督分類器的準(zhǔn)確率,與此處使用的 AlexNet 架構(gòu)類似。

圖 5:使用 DIM(G)和 DIM(L)在編碼的 Tiny ImageNet 圖像上使用 L1 距離的最近鄰。最左邊的圖像是來(lái)自訓(xùn)練集的隨機(jī)選擇的參考圖像(查詢)以及在表示中測(cè)量的來(lái)自測(cè)試集的最近鄰的四個(gè)圖像,按照接近度排序。來(lái)自 DIM(L)的最近鄰比具有純粹全局目標(biāo)的近鄰更容易理解。

圖 7:描繪判別器非歸一化輸出分布的直方圖,分別是標(biāo)準(zhǔn) GAN、具有-log D 損失的 GAN、最小二乘 GAN、Wasserstein GAN 以及作者提出的以 50:1 訓(xùn)練率訓(xùn)練的方法。

方法:深度 INFOMAX

圖 1:圖像數(shù)據(jù)上下文中的基本編碼器模型。將圖像(在這種情況下)編碼到卷積網(wǎng)絡(luò)中,直到有一個(gè) M×M 特征向量的特征圖與 M×M 個(gè)輸入塊對(duì)應(yīng)。將這些矢量(例如使用額外的卷積和全連接層)歸一化到單個(gè)特征向量 Y。目標(biāo)是訓(xùn)練此網(wǎng)絡(luò),以便從高級(jí)特征中提取有關(guān)輸入的相關(guān)信息。

圖 2:具有全局 MI(X; Y)目標(biāo)的深度 INFOMAX(DIM)。研究者通過(guò)由額外的卷積層、flattening 層和全連接層組成的判別器來(lái)傳遞高級(jí)特征向量 Y 和低級(jí) M×M 特征圖(參見(jiàn)圖 1)以獲得分?jǐn)?shù)。通過(guò)將相同的特征向量與來(lái)自另一圖像的 M×M 特征圖結(jié)合來(lái)繪制偽樣本。

結(jié)論

在這項(xiàng)研究中,研究者們介紹了 Deep INFOMAX(DIM),這是一種通過(guò)最大化互信息來(lái)學(xué)習(xí)無(wú)監(jiān)督表示的新方法。DIM 允許在架構(gòu)「位置」(如圖像中的塊)中包含局部一致信息的表示。這提供了一種直接且靈活的方式來(lái)學(xué)習(xí)在各種任務(wù)上有優(yōu)良表現(xiàn)的表示。他們認(rèn)為,這是學(xué)習(xí)「好的」和更條理的表示的一個(gè)重要方向,這將利于未來(lái)的人工智能研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3643

    瀏覽量

    134510
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47274

    瀏覽量

    238462
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5503

    瀏覽量

    121157

原文標(biāo)題:學(xué)界 | 最大化互信息來(lái)學(xué)習(xí)深度表示,Bengio等提出Deep INFOMAX

文章出處:【微信號(hào):CAAI-1981,微信公眾號(hào):中國(guó)人工智能學(xué)會(huì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    labview獲取【顯示分辨率】并實(shí)時(shí)設(shè)置界面【最大化】和【最小化居中】

    = GetSystemMetrics(SM_CYSCREEN);//屏幕高度在labview中設(shè)置參數(shù)類型和返回類型:labview中調(diào)用代碼:如此就可以獲取顯示分辨率了。(2)、實(shí)時(shí)設(shè)置界面【最大化
    發(fā)表于 04-19 12:40

    基于最大互信息方法的機(jī)械零件圖像識(shí)別

    提出了應(yīng)用最大互信息方法進(jìn)行零件圖像識(shí)別的方法,它利用圖像的信息熵描述圖像的特征,結(jié)合圖像的顏色信息及局部形狀信息,
    發(fā)表于 12-18 16:39 ?22次下載

    基于互信息的功能磁共振圖像配準(zhǔn)

    互信息作為衡量?jī)煞鶊D像配準(zhǔn)的相似性測(cè)度函數(shù),當(dāng)兩幅圖像配準(zhǔn)時(shí),互信息達(dá)到最大值。該文提出了基于互信息腦功能磁共振圖像配準(zhǔn)新方法,采用了無(wú)需計(jì)
    發(fā)表于 02-28 17:01 ?22次下載

    基于圖嵌入和最大互信息組合的降維

    在特征降維方面,圖嵌入框架統(tǒng)一了PCA, LDA 等一系列特征降維算法,方便求解,但相似度矩陣計(jì)算有賴于人為假設(shè)。而最大互信息(MMI)從信息論的角度得到有效的特征降維變換,
    發(fā)表于 08-21 10:24 ?9次下載

    基于互信息梯度優(yōu)化計(jì)算的信息判別特征提取

    該文將互信息梯度優(yōu)化引入特征提取矩陣求解,提出一種信息判別分析的特征提取方法。首先,分析了現(xiàn)有線性判別方法的特點(diǎn)和局限,建立了類條件分布參數(shù)模型下互信息最大化
    發(fā)表于 02-10 12:02 ?9次下載

    Powell和SA混合優(yōu)化的互信息圖像配準(zhǔn)

    基于互信息的圖像配準(zhǔn)方法具有魯棒性強(qiáng)、配準(zhǔn)精度高等優(yōu)點(diǎn),已被廣泛應(yīng)用于醫(yī)學(xué)圖像的配準(zhǔn)。但計(jì)算互信息涉及大量的浮點(diǎn)運(yùn)算,且搜索最大互信息時(shí)容易陷入局部極值。本文提出
    發(fā)表于 02-21 14:46 ?14次下載

    基于互信息屬性分析與極端學(xué)習(xí)機(jī)的超短期風(fēng)速預(yù)測(cè)

    基于互信息屬性分析與極端學(xué)習(xí)機(jī)的超短期風(fēng)速預(yù)測(cè)_黃南天
    發(fā)表于 01-05 15:33 ?0次下載

    基于互信息和余弦的不良文檔過(guò)濾

    針對(duì)網(wǎng)頁(yè)中的維吾爾文不良文檔信息的過(guò)濾問(wèn)題,提出一種基于互信息和余弦相似度的不良文檔信息過(guò)濾方案。首先,對(duì)輸入文檔進(jìn)行預(yù)處理,過(guò)濾掉無(wú)用單詞。然后,利用文檔頻率(DF)和
    發(fā)表于 11-13 10:41 ?7次下載
    基于<b class='flag-5'>互信息</b>和余弦的不良文檔過(guò)濾

    基于互信息轉(zhuǎn)發(fā)MIF的網(wǎng)絡(luò)編碼中繼轉(zhuǎn)發(fā)方案

    針對(duì)雙向中繼網(wǎng)絡(luò)中傳統(tǒng)中繼轉(zhuǎn)發(fā)協(xié)議放大信號(hào)的同時(shí)放大了噪聲、可能轉(zhuǎn)發(fā)錯(cuò)誤的解碼信號(hào)、中繼判決結(jié)果不可靠等問(wèn)題,提出兩種基于互信息轉(zhuǎn)發(fā)(MIF)的網(wǎng)絡(luò)編碼中繼轉(zhuǎn)發(fā)方案。首先,中繼節(jié)點(diǎn)轉(zhuǎn)發(fā)來(lái)自兩個(gè)源端
    發(fā)表于 12-25 10:40 ?0次下載
    基于<b class='flag-5'>互信息</b>轉(zhuǎn)發(fā)MIF的網(wǎng)絡(luò)<b class='flag-5'>編碼</b>中繼轉(zhuǎn)發(fā)方案

    密碼芯片時(shí)域互信息能量分析

    在對(duì)密碼芯片進(jìn)行時(shí)域上互信息能量分析基礎(chǔ)上,提出頻域上最大互信息系數(shù)能量分析攻擊的方法。該方法結(jié)合了密碼芯片在頻域上信息泄露的原理和互信息
    發(fā)表于 02-27 10:48 ?0次下載
    密碼芯片時(shí)域<b class='flag-5'>互信息</b>能量分析

    是十款各具特色的GANs,深入了解數(shù)學(xué)原理

    InfoGAN是生成對(duì)抗網(wǎng)絡(luò)信息理論的擴(kuò)展,能夠完全非監(jiān)督的方式得到可分解的特征表示。它可以最大化隱含(latent)變量子集與觀測(cè)值之間
    的頭像 發(fā)表于 07-20 09:59 ?5249次閱讀

    編碼器參數(shù)_編碼器型號(hào)說(shuō)明

    編碼器一種很常見(jiàn)的人機(jī)交互信息輸入元器件, 主要分為兩大類一類是光電編碼器一類是接觸式的編碼器,今天主要跟大家分享一下接觸式旋轉(zhuǎn)
    發(fā)表于 02-19 15:15 ?3.1w次閱讀
    <b class='flag-5'>編碼器</b>參數(shù)_<b class='flag-5'>編碼器</b>型號(hào)說(shuō)明

    一種改進(jìn)互信息的加權(quán)樸素貝葉斯算法

    互信息和樸素貝葉斯算法應(yīng)用于垃圾郵件過(guò)濾時(shí),存在特征冗余和獨(dú)立性假設(shè)不成立的問(wèn)題。為此,提出種改進(jìn)互信息的加權(quán)樸素貝葉斯算法。針對(duì)互信息效率較低的問(wèn)題,通過(guò)引入詞頻因子與類間差異因子,提出一種改進(jìn)
    發(fā)表于 03-16 10:15 ?12次下載
    一種改進(jìn)<b class='flag-5'>互信息</b>的加權(quán)樸素貝葉斯算法

    基于互信息最大化的Raptor碼優(yōu)化設(shè)計(jì)方法

    基于互信息最大化的Raptor碼優(yōu)化設(shè)計(jì)方法
    發(fā)表于 07-02 11:47 ?8次下載

    編碼器好壞怎么判斷,編碼器原理

    編碼器(Encoder)是將輸入數(shù)據(jù)轉(zhuǎn)化為特定編碼表示的一種技術(shù)。對(duì)于不同類型的編碼器,評(píng)判好壞可以從多個(gè)方面進(jìn)行考量,包括
    的頭像 發(fā)表于 01-23 10:58 ?1896次閱讀