0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

研究人員提出一種基于哈希的二值網(wǎng)絡(luò)訓(xùn)練方法 比當(dāng)前方法的精度提高了3%

DPVg_AI_era ? 2018-02-08 15:38 ? 次閱讀

程健研究員團(tuán)隊(duì)最近提出了一種基于哈希的二值網(wǎng)絡(luò)訓(xùn)練方法,揭示了保持內(nèi)積哈希和二值權(quán)重網(wǎng)絡(luò)之間的緊密關(guān)系,表明了網(wǎng)絡(luò)參數(shù)二值化本質(zhì)上可以轉(zhuǎn)化為哈希問題,在ResNet-18上,該方法比當(dāng)前最好方法的精度提高了3%。

近年來,深度卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)深入了計算機(jī)視覺的各個任務(wù)中,并在圖像識別、目標(biāo)跟蹤、語義分割等領(lǐng)域中取得了重大突破。在一些場景下,當(dāng)前深度卷積網(wǎng)絡(luò)性能已經(jīng)足以部署到實(shí)際應(yīng)用中,這也鼓舞著人們將深度學(xué)習(xí)落地到更多的應(yīng)用中。

然而,深度卷積網(wǎng)絡(luò)在實(shí)際部署時面臨著參數(shù)量和時間復(fù)雜度等兩方面的問題,一方面是深度網(wǎng)絡(luò)巨大的參數(shù)量會占用大量的硬盤存儲和運(yùn)行內(nèi)存,這些硬件資源在一些移動和嵌入式設(shè)備中往往是很有限的;另外一方面就是深度網(wǎng)絡(luò)的計算復(fù)雜度較高,這會使得網(wǎng)絡(luò)推理速度很慢,同時會增加移動設(shè)備的電量消耗。

為了解決此類問題,人們提出了很多網(wǎng)絡(luò)加速和壓縮方法,其中網(wǎng)絡(luò)參數(shù)二值化是一種將網(wǎng)絡(luò)參數(shù)表示為二值參數(shù)的方法。由于二值網(wǎng)絡(luò)中參數(shù)只有+1和-1兩種值,乘法運(yùn)算就可以被加法運(yùn)算替代。由于乘法運(yùn)算比加法運(yùn)算需要更多的硬件資源和計算周期,使用加法運(yùn)算替代乘法運(yùn)算能夠?qū)崿F(xiàn)網(wǎng)絡(luò)加速的目的。

另一方面,原始網(wǎng)絡(luò)參數(shù)的存儲格式是32位浮點(diǎn)數(shù),二值參數(shù)網(wǎng)絡(luò)只使用1位來表示+1或者-1,達(dá)到了32倍的壓縮目的。但是將參數(shù)從32位量化到1位會導(dǎo)致較大的量化損失,當(dāng)前的二值網(wǎng)絡(luò)訓(xùn)練方法往往會導(dǎo)致較大的網(wǎng)絡(luò)精度下降,如何學(xué)習(xí)二值的網(wǎng)絡(luò)參數(shù)同時又不帶來較大的精度下降是一個問題。

圖自網(wǎng)絡(luò)

自動化所程健研究員團(tuán)隊(duì)的胡慶浩等人最近提出了一種基于哈希的二值網(wǎng)絡(luò)訓(xùn)練方法,揭示了保持內(nèi)積哈希(Innerproduct Preserving Hashing)和二值權(quán)重網(wǎng)絡(luò)之間的緊密關(guān)系,表明了網(wǎng)絡(luò)參數(shù)二值化本質(zhì)上可以轉(zhuǎn)化為哈希問題。

給定訓(xùn)練好的全精度浮點(diǎn)32位網(wǎng)絡(luò)參數(shù),二值權(quán)重網(wǎng)絡(luò)(BWN)的目的是學(xué)習(xí)二值網(wǎng)絡(luò)參數(shù)并維持原始網(wǎng)絡(luò)精度。學(xué)習(xí)二值參數(shù)的最樸素的方式就是最小化與二值參數(shù)之間的量化誤差,但是這種量化誤差和網(wǎng)絡(luò)精度之間存在著一定的差距,最小化量化誤差并不會直接提高網(wǎng)絡(luò)精度,因?yàn)槊恳粚拥牧炕`差會逐層積累,而且量化誤差會受到輸入數(shù)據(jù)的增幅。

一種更好的學(xué)習(xí)二值參數(shù)的方式是最小化內(nèi)積相似性之差。假設(shè)網(wǎng)絡(luò)某一層輸入為,是原始的內(nèi)積相似性,則是量化之后的內(nèi)積相似性,最小化之間的誤差可以學(xué)習(xí)到更好的二值參數(shù)。從哈希的角度來講,代表著數(shù)據(jù)在原始空間中的相似性或者近鄰關(guān)系,則代表著數(shù)據(jù)投影到漢明空間之后的內(nèi)積相似性。而哈希的作用就是將數(shù)據(jù)投影到漢明空間,且在漢明空間中保持?jǐn)?shù)據(jù)在原始空間中的近鄰關(guān)系。至此,學(xué)習(xí)二值參數(shù)的問題就轉(zhuǎn)化成了一個在內(nèi)積相似性下的哈希問題,該哈希主要是將數(shù)據(jù)投影到漢明空間并保持其在原始空間中的內(nèi)積相似性。

團(tuán)隊(duì)首先在VGG9小網(wǎng)絡(luò)上對方法進(jìn)行驗(yàn)證,并且在AlexNet和ResNet-18上超過當(dāng)前的二值權(quán)重網(wǎng)絡(luò)。特別的,在ResNet-18上,該方法比當(dāng)前最好方法的精度提高了3個百分點(diǎn)。獲得了較好的實(shí)驗(yàn)結(jié)果。

表1:不同方法在VGG9上的分類錯誤率

表2:不同方法在AlexNet的分類精度

表3:不同方法在ResNet-18的分類精度

Dasgupta等人[2]在2017年11月份的《Science》上撰文揭示了果蠅嗅覺神經(jīng)回路其實(shí)是一種特殊的哈希,其哈希投影是稀疏的二值連接。對比二值權(quán)重網(wǎng)絡(luò)(BWN),我們可以發(fā)現(xiàn)二者之間有著密切的關(guān)系,首先,二者的網(wǎng)絡(luò)都是二值連接,這意味著二值權(quán)重在生物神經(jīng)回路中有存在的生物基礎(chǔ),這也為二值權(quán)重網(wǎng)絡(luò)的潛在機(jī)理提供了啟發(fā);其次,二者都是為了保持近鄰關(guān)系,并且可以描述為哈希問題,這種現(xiàn)象表明神經(jīng)網(wǎng)絡(luò)的某些連接是為了保持近鄰關(guān)系。最后,果蠅嗅覺回路中的稀疏連接和卷積層的參數(shù)共享機(jī)制有著異曲同工之處,都是對輸入的部分區(qū)域進(jìn)行連接。

相關(guān)工作已經(jīng)被AAAI2018接收[1],并將在大會上作口頭報告。

參考資料:

[1] Qinghao Hu, Peisong Wang, Jian Cheng. From Hashing to CNNs: Training Binary Weight Networks via Hashing. AAAI 2018

[2]Dasgupta S, Stevens C F, Navlakha S. A neural algorithm for a fundamental computing problem. Science, 2017, 358(6364): 793-796.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:【中科院自動化所AAAI Oral】從哈希到卷積神經(jīng)網(wǎng)絡(luò):高精度 & 低功耗

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    dc模塊電源的控制方法

    。在各種數(shù)字控制的方法中,PID控制是一種比較成熟/應(yīng)用廣泛的控制方法。PID控制優(yōu)點(diǎn):1.比例環(huán)節(jié)可以減少系統(tǒng)的穩(wěn)態(tài)誤差,提高控制精度。2
    發(fā)表于 07-28 14:15

    新型諧波分析方法提高了精度減少了智能儀表的計算開銷

    新型諧波分析方法提高了精度,減少了智能儀表的計算開銷
    發(fā)表于 07-15 14:06

    求大佬分享一種基于毫米波雷達(dá)和機(jī)器視覺的前方車輛檢測方法

    研究夜間追尾事故中本車智能防撞預(yù)警方法,本文提出一種基于毫米波雷達(dá)和機(jī)器視覺的前方車輛檢測方法
    發(fā)表于 06-10 10:23

    隱藏技術(shù): 一種基于前沿神經(jīng)網(wǎng)絡(luò)理論的新型人工智能處理器

    隱藏技術(shù): 一種基于前沿神經(jīng)網(wǎng)絡(luò)理論的新型人工智能處理器 Copy東京理工大學(xué)的研究人員開發(fā)了一種名為“ Hiddenite”的新型加速器芯片,該芯片可以在計算稀疏“隱藏神經(jīng)
    發(fā)表于 03-17 19:15

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?
    發(fā)表于 09-06 09:52

    探索一種降低ViT模型訓(xùn)練成本的方法

    無法獲得此類資源的研究人員排除在這研究領(lǐng)域之外。通過僅使用1個GPU作為基準(zhǔn),顯著降低了ViT的訓(xùn)練成本,這使得更多的研究人員能夠推動這
    發(fā)表于 11-24 14:56

    基于粒子群優(yōu)化的條件概率神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法

    條件概率神經(jīng)網(wǎng)絡(luò)在進(jìn)行模式分類時具有獨(dú)特的優(yōu)勢,然而如何對其進(jìn)行有效的訓(xùn)練,從而找到最優(yōu)參數(shù)卻是個困難的問題。在考慮條件概率神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)特點(diǎn)之后,本文
    發(fā)表于 01-08 16:35 ?0次下載

    微軟在ICML 2019上提出個全新的通用預(yù)訓(xùn)練方法MASS

    專門針對序列到序列的自然語言生成任務(wù),微軟亞洲研究提出了新的預(yù)訓(xùn)練方法:屏蔽序列到序列預(yù)訓(xùn)練(MASS: Masked Sequence to Sequence Pre-traini
    的頭像 發(fā)表于 05-11 09:19 ?3571次閱讀
    微軟在ICML 2019上<b class='flag-5'>提出</b>了<b class='flag-5'>一</b>個全新的通用預(yù)<b class='flag-5'>訓(xùn)練方法</b>MASS

    新的預(yù)訓(xùn)練方法——MASS!MASS預(yù)訓(xùn)練幾大優(yōu)勢!

    專門針對序列到序列的自然語言生成任務(wù),微軟亞洲研究提出了新的預(yù)訓(xùn)練方法:屏蔽序列到序列預(yù)訓(xùn)練(MASS: Masked Sequence to Sequence Pre-traini
    的頭像 發(fā)表于 05-11 09:34 ?7216次閱讀
    新的預(yù)<b class='flag-5'>訓(xùn)練方法</b>——MASS!MASS預(yù)<b class='flag-5'>訓(xùn)練</b>幾大優(yōu)勢!

    普渡大學(xué)的研究人員正在開發(fā)一種綜合醫(yī)療傳感平臺

    普渡大學(xué)的研究人員正在開發(fā)一種綜合生物傳感平臺,旨在現(xiàn)有方法更快,更便宜地檢測和監(jiān)測蚊媒疾病,以幫助預(yù)防病毒爆發(fā)及其破壞性影響。
    發(fā)表于 10-25 09:19 ?937次閱讀

    研究人員發(fā)現(xiàn)一種可在水中產(chǎn)生納米氣泡的新方法

    都柏林大學(xué)(UCD)的研究人員發(fā)現(xiàn)了一種新的節(jié)能方法,該方法可以在水中產(chǎn)生和釋放大量亞穩(wěn)的納米級氣泡,超過自然溶解度水平。
    的頭像 發(fā)表于 04-09 17:13 ?7228次閱讀

    基于異構(gòu)哈希網(wǎng)絡(luò)的跨模態(tài)人臉檢索方法探究分析

    該文提出一種基于異構(gòu)哈希網(wǎng)絡(luò)的跨模態(tài)人臉檢索方法。異構(gòu)哈希網(wǎng)
    發(fā)表于 03-31 09:29 ?18次下載
    基于異構(gòu)<b class='flag-5'>哈希</b><b class='flag-5'>網(wǎng)絡(luò)</b>的跨模態(tài)人臉檢索<b class='flag-5'>方法</b>探究分析

    一種基于異構(gòu)哈希網(wǎng)絡(luò)的跨模態(tài)人臉檢索方法

    該文提出一種基于異構(gòu)哈希網(wǎng)絡(luò)的跨模態(tài)人臉檢索方法。異枃哈希網(wǎng)
    發(fā)表于 04-28 16:24 ?5次下載
    <b class='flag-5'>一種</b>基于異構(gòu)<b class='flag-5'>哈希</b><b class='flag-5'>網(wǎng)絡(luò)</b>的跨模態(tài)人臉檢索<b class='flag-5'>方法</b>

    時識科技提出新脈沖神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法 助推類腦智能產(chǎn)業(yè)落地

    近日,SynSense時識科技技術(shù)團(tuán)隊(duì)發(fā)表題為“EXODUS: Stable and Efficient Training of Spiking Neural Networks”的文章,在文章中提出了新的脈沖神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法EX
    的頭像 發(fā)表于 06-20 14:21 ?1572次閱讀

    ai大模型訓(xùn)練方法有哪些?

    AI大模型訓(xùn)練方法個復(fù)雜且不斷發(fā)展的領(lǐng)域。以下是ai大模型訓(xùn)練方法: 數(shù)據(jù)預(yù)處理和增強(qiáng) 數(shù)據(jù)清洗:去除噪聲和不完整的數(shù)據(jù)。 數(shù)據(jù)標(biāo)準(zhǔn)化:將數(shù)據(jù)縮放到統(tǒng)的范圍。 數(shù)據(jù)增強(qiáng):通過旋轉(zhuǎn)
    的頭像 發(fā)表于 07-16 10:11 ?2375次閱讀