0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

解析圖像分類器結(jié)構(gòu)搜索的正則化異步進(jìn)化方法 并和強化學(xué)習(xí)方法進(jìn)行對比

zhKF_jqr_AI ? 2018-02-09 14:47 ? 次閱讀

最近神經(jīng)網(wǎng)絡(luò)的成功不斷擴展著模型的架構(gòu),并促成了架構(gòu)搜索的出現(xiàn),即神經(jīng)網(wǎng)絡(luò)自動學(xué)習(xí)架構(gòu)。架構(gòu)搜索的傳統(tǒng)方法是神經(jīng)演化,如今,硬件的發(fā)展能實現(xiàn)大規(guī)模的演變,生成可以與手工設(shè)計相媲美的圖像分類模型。但是,新的技術(shù)雖然可行,卻無法讓開發(fā)者決定在具體的環(huán)境下(即搜索空間和數(shù)據(jù)集)使用哪種方法。

在本篇論文中,研究人員使用流行的異步進(jìn)化算法(asynchronous evolutionary algorithm)的正則化版本,并將其與非正則化的形式以及強化學(xué)習(xí)方法進(jìn)行比較。硬件條件、計算能力和神經(jīng)網(wǎng)絡(luò)訓(xùn)練代碼都相同,在這之中研究人員探索在不同的數(shù)據(jù)集、搜索空間和規(guī)模下模型的表現(xiàn)情況。以下是論智對論文的編譯總結(jié)。

實驗方法

我們使用不同的算法搜索神經(jīng)網(wǎng)絡(luò)分類器的空間,進(jìn)行基線研究后,所得到的最好的模型將被擴大尺寸,以生產(chǎn)更高質(zhì)量的圖像分類器。我們在不同的計算規(guī)模上執(zhí)行搜索過程。另外,我們還研究了非神經(jīng)網(wǎng)絡(luò)模擬中的進(jìn)化算法。

1.搜索空間

所有神經(jīng)進(jìn)化和強化學(xué)習(xí)實驗都使用基線研究的搜索空間設(shè)計,它需要尋找兩個類似于Inception的模塊體系結(jié)構(gòu),這兩個結(jié)構(gòu)在前饋模式中堆疊以形成圖像分類器。

2.架構(gòu)搜索算法

對于進(jìn)化算法,我們使用聯(lián)賽選擇算法(tournament selection)或正則化的變體。標(biāo)準(zhǔn)的聯(lián)賽選擇算法是對訓(xùn)練模型P的數(shù)量進(jìn)行周期化的改進(jìn)。在每個循環(huán)中,隨機選擇一個S模型的樣本。樣本的最佳模型將生成具有變化架構(gòu)的另一模型,它將被訓(xùn)練然后添加到模型樣本中。最差的模型將被刪除。我們將這種方法稱為非正則進(jìn)化(NRE)。它的變體,正則化進(jìn)化(RE)則是一種自然的修正:無需刪除樣本中最差的模型,而是刪除樣本中最老的模型(即第一個被訓(xùn)練的模型)。在NRE和RE中,樣本初始化的架構(gòu)都是隨機的。

3.實驗設(shè)置

為了對比進(jìn)化算法和強化學(xué)習(xí)算法,我們將在不同的計算規(guī)模上進(jìn)行實驗。

小規(guī)模試驗

首先進(jìn)行的實驗可以在CPU上進(jìn)行,我們部署了SP-I、SP-II和SP-III三種搜索空間,利用G-CIFAR、MNIST或者G-ImageNet數(shù)據(jù)集進(jìn)行實驗。

大規(guī)模實驗

然后再部署基線研究的設(shè)置。這里僅用SP-I搜索空間和CIFAR-10數(shù)據(jù)集,兩種模型各在450個GPU上訓(xùn)練將近7天。

4.模型擴展

我們要將進(jìn)化算法或強化學(xué)習(xí)發(fā)現(xiàn)的架構(gòu)轉(zhuǎn)化為全尺寸、精確的模型。擴展后的模型將在CIFAR-10或ImageNet上進(jìn)行訓(xùn)練,程序與基線研究的相同。

實驗結(jié)果

解析圖像分類器結(jié)構(gòu)搜索的正則化異步進(jìn)化方法 并和強化學(xué)習(xí)方法進(jìn)行對比

正則化與非正則化進(jìn)化的對比。(a)表示在G-CIFAR數(shù)據(jù)集上非正則化進(jìn)化和正則化進(jìn)化用不同的元參數(shù)進(jìn)行的小規(guī)模實驗結(jié)果對比。P代表樣本數(shù)量,S代表樣本大小。(b)表示NRE和RE在五種不同情況下的表現(xiàn),從左至右分別為:G-CIFAR/SP-I、G-CIFAR/SP-II、G-CIFAR/SP-III、MNIST/SP-I和G-ImageNet/SP-I。(c)表示模擬結(jié)果,豎軸表示模擬的精確度,橫軸表示問題的維度。(d)表示在CIFAR-10上進(jìn)行的三次大規(guī)模試驗。

接著,我們在不同的情況下對強化學(xué)習(xí)和進(jìn)化算法進(jìn)行了小規(guī)模實驗,結(jié)果如下:

解析圖像分類器結(jié)構(gòu)搜索的正則化異步進(jìn)化方法 并和強化學(xué)習(xí)方法進(jìn)行對比

(a)顯示了在G-CIFAR上對超參數(shù)進(jìn)行優(yōu)化的實驗總結(jié),豎軸表示實驗中前100名的模型的平均有效精度。結(jié)果表明所所有方法都不夠敏感。(b)同樣是在模型五種不同情況下的表現(xiàn):G-CIFAR/SP-I、G-CIFAR/SP-II、G-CIFAR/SP-III、MNIST/SP-I和G-ImageNet/SP-I。(c)和(d)表示模型分別在G-CIFAR/SP-II和G-CIFAR/SP-III上的表現(xiàn)細(xì)節(jié),橫軸表示模型的數(shù)量。(e)表示在資源有限的情況下,可能需要盡早停止實驗。說明了在初始狀態(tài)下,進(jìn)化算法的精確度比強化學(xué)習(xí)增長得快得多。(f)和(g)分別是SP-I和SP-III最頂尖的架構(gòu)。

比較完小規(guī)模實驗,接著進(jìn)行的是大規(guī)模實驗。結(jié)果如下圖所示,黃色代表進(jìn)化算法,藍(lán)色代表強化學(xué)習(xí):

解析圖像分類器結(jié)構(gòu)搜索的正則化異步進(jìn)化方法 并和強化學(xué)習(xí)方法進(jìn)行對比

除了(d)圖,所有橫軸均表示模型的數(shù)量(m)。(a)、(b)、(c)三圖分別展示了三種算法在五次相同實驗的情況,進(jìn)化算法和強化學(xué)習(xí)實驗使用了最佳元參數(shù)。

經(jīng)過進(jìn)化實驗,我們確定了最佳模型并將其命名為AmoebaNet-A。通過調(diào)整N和F,我們可以降低測試錯誤率,如表1所示:

解析圖像分類器結(jié)構(gòu)搜索的正則化異步進(jìn)化方法 并和強化學(xué)習(xí)方法進(jìn)行對比

表1

在相同的實驗條件下,基線研究得到了NASNet-A。表2顯示,在CIFAR-10數(shù)據(jù)集中,AmoebaNet-A在匹配參數(shù)時錯誤率較低,在匹配錯誤時,參數(shù)較少。同時在ImageNet上的表現(xiàn)也是目前最好的。

解析圖像分類器結(jié)構(gòu)搜索的正則化異步進(jìn)化方法 并和強化學(xué)習(xí)方法進(jìn)行對比

表2

最后我們對比了手動設(shè)計、其他架構(gòu)以及我們模型的性能對比,準(zhǔn)確率均高于其他兩種。

解析圖像分類器結(jié)構(gòu)搜索的正則化異步進(jìn)化方法 并和強化學(xué)習(xí)方法進(jìn)行對比

表3

結(jié)語

大規(guī)模的實驗過程圖表明,強化學(xué)習(xí)和進(jìn)化算法都接近一般精度漸近線,所以我們需要關(guān)注的是哪個算法更快到達(dá)。圖中顯示強化學(xué)習(xí)要用兩倍的時間到達(dá)最高精度的一半,換句話說,進(jìn)化算法的速度大約比強化學(xué)習(xí)快一倍。但是我們忽略了進(jìn)一步量化這一效果。另外,搜索空間的大小還需進(jìn)一步評估。大空間所需專業(yè)資源較少,而小空間能更快更好地獲得結(jié)果。因此,在較小空間中很難區(qū)分哪種搜索算法更好。

不過,這一研究僅僅是在特定環(huán)境下分析進(jìn)化算法和強化學(xué)習(xí)之間關(guān)系的第一個實證研究,我們希望今后的工作能進(jìn)一步總結(jié)二者,闡釋兩種方法的優(yōu)點。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:圖像分類器結(jié)構(gòu)搜索的正則化異步進(jìn)化方法

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    漸進(jìn)式神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)

    我們提出一種學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)構(gòu)的新方法,該方法比現(xiàn)有的基于強化學(xué)習(xí)進(jìn)化算法的技術(shù)更
    的頭像 發(fā)表于 08-03 09:32 ?5436次閱讀

    深度強化學(xué)習(xí)實戰(zhàn)

    內(nèi)容2:課程一: TensoRFlow入門到熟練:課程二:圖像分類:課程三:物體檢測:課程四:人臉識別:課程五:算法實現(xiàn):1、卷積神經(jīng)網(wǎng)絡(luò)CNN2、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN3、強化學(xué)習(xí)DRL4、對抗性生成
    發(fā)表于 01-10 13:42

    一種基于機器學(xué)習(xí)的建筑物分割掩模自動正則和多邊形方法

    摘要我們提出了一種基于機器學(xué)習(xí)的建筑物分割掩模自動正則和多邊形方法。以圖像為輸入,首先使用通
    發(fā)表于 09-01 07:19

    深度學(xué)習(xí)技術(shù)的開發(fā)與應(yīng)用

    2.算法設(shè)計 3.實驗結(jié)果高頻問題:如何將一個控制問題設(shè)計成馬爾可夫決策問題并使用強化學(xué)習(xí)算法進(jìn)行訓(xùn)練關(guān)鍵點:1.基于模型的離線強化學(xué)習(xí)方法 2.基于數(shù)據(jù)的在線強化學(xué)習(xí)方法實操
    發(fā)表于 04-21 14:57

    圖像分類方法之深度學(xué)習(xí)與傳統(tǒng)機器學(xué)習(xí)

    實際情況非常復(fù)雜,傳統(tǒng)的分類方法不堪重負(fù)。現(xiàn)在,我們不再試圖用代碼來描述每一個圖像類別,決定轉(zhuǎn)而使用機器學(xué)習(xí)方法處理
    發(fā)表于 09-28 19:43 ?0次下載

    基于數(shù)據(jù)挖掘的醫(yī)學(xué)圖像分類方法

    一種深度學(xué)習(xí)的新方法卷積受限玻爾茲曼機模型,并且采用改進(jìn)的快速持續(xù)對比散度算法對模型進(jìn)行訓(xùn)練。該方法直接從乳腺X光
    發(fā)表于 11-22 16:32 ?8次下載

    斯坦福提出基于目標(biāo)的策略強化學(xué)習(xí)方法——SOORL

    為了達(dá)到人類學(xué)習(xí)的速率,斯坦福的研究人員們提出了一種基于目標(biāo)的策略強化學(xué)習(xí)方法——SOORL,把重點放在對策略的探索和模型選擇上。
    的頭像 發(fā)表于 06-06 11:18 ?5422次閱讀
    斯坦福提出基于目標(biāo)的策略<b class='flag-5'>強化學(xué)習(xí)方法</b>——SOORL

    使用加權(quán)密集連接卷積網(wǎng)絡(luò)的深度強化學(xué)習(xí)方法說明

    針對深度強化學(xué)習(xí)中卷積神經(jīng)網(wǎng)絡(luò)(CNN)層數(shù)過深導(dǎo)致的梯度消失問題,提出一種將密集連接卷積網(wǎng)絡(luò)應(yīng)用于強化學(xué)習(xí)方法。首先,利用密集連接卷積網(wǎng)絡(luò)中的跨層連接結(jié)構(gòu)
    發(fā)表于 01-23 10:41 ?3次下載
    使用加權(quán)密集連接卷積網(wǎng)絡(luò)的深度<b class='flag-5'>強化學(xué)習(xí)方法</b>說明

    谷歌和DeepMind研究人員合作提出新的強化學(xué)習(xí)方法Dreamer 可利用世界模型實現(xiàn)高效的行為學(xué)習(xí)

    近年來隨著強化學(xué)習(xí)的發(fā)展,使得智能體選擇恰當(dāng)行為以實現(xiàn)目標(biāo)的能力得到迅速地提升。目前研究領(lǐng)域主要使用兩種方法:一種是無模型(model-free)的強化學(xué)習(xí)方法,通過試錯的方式來學(xué)習(xí)預(yù)
    發(fā)表于 03-26 11:41 ?1975次閱讀

    深度學(xué)習(xí)圖像分割的方法和應(yīng)用

    介紹使圖像分割的方法,包括傳統(tǒng)方法和深度學(xué)習(xí)方法,以及應(yīng)用場景。 基于人工智能和深度學(xué)習(xí)方法的現(xiàn)代計算機視覺技術(shù)在過去10年里取得了顯著進(jìn)展
    的頭像 發(fā)表于 11-27 10:29 ?3180次閱讀

    進(jìn)化算法為搜索策略實現(xiàn)神經(jīng)架構(gòu)搜索方法

    自動深度學(xué)習(xí)是目前深度學(xué)習(xí)領(lǐng)域的研究熱點,神經(jīng)架構(gòu)搜索算法是實現(xiàn)自動深度學(xué)習(xí)的主要
    發(fā)表于 03-22 14:37 ?15次下載
    以<b class='flag-5'>進(jìn)化</b>算法為<b class='flag-5'>搜索</b>策略實現(xiàn)神經(jīng)架構(gòu)<b class='flag-5'>搜索</b>的<b class='flag-5'>方法</b>

    模型深度強化學(xué)習(xí)應(yīng)用研究綜述

    強化學(xué)習(xí)。無模型強仳學(xué)習(xí)方法的訓(xùn)練過程需要大量樣本,當(dāng)采樣預(yù)算不足,無法收集大量樣本時,很難達(dá)到預(yù)期效果。然而,模型強化學(xué)習(xí)可以充分利用環(huán)境模型,降低真實樣本需求量,在一定程度上提高
    發(fā)表于 04-12 11:01 ?9次下載
    模型<b class='flag-5'>化</b>深度<b class='flag-5'>強化學(xué)習(xí)</b>應(yīng)用研究綜述

    基于深度強化學(xué)習(xí)的無人機控制律設(shè)計方法

    基于深度強化學(xué)習(xí)的無人機控制律設(shè)計方法
    發(fā)表于 06-23 14:59 ?46次下載

    使用深度學(xué)習(xí)方法對音樂流派進(jìn)行分類

    電子發(fā)燒友網(wǎng)站提供《使用深度學(xué)習(xí)方法對音樂流派進(jìn)行分類.zip》資料免費下載
    發(fā)表于 02-08 10:02 ?1次下載
    使用深度<b class='flag-5'>學(xué)習(xí)方法</b>對音樂流派<b class='flag-5'>進(jìn)行</b><b class='flag-5'>分類</b>

    如何使用 PyTorch 進(jìn)行強化學(xué)習(xí)

    強化學(xué)習(xí)(Reinforcement Learning, RL)是一種機器學(xué)習(xí)方法,它通過與環(huán)境的交互來學(xué)習(xí)如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器學(xué)習(xí)庫,
    的頭像 發(fā)表于 11-05 17:34 ?298次閱讀