0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種新的輕量級(jí)視覺Transformer

CVer ? 來源:CVHub ? 作者:CVHub ? 2022-12-19 14:00 ? 次閱讀

Introduction

隨著 ViT 的出現(xiàn),Transformer 模型在計(jì)算機(jī)視覺領(lǐng)域遍地開花,一層激起一層浪。雖然精度很高,但被人廣為詬病的依舊是它的效率問題,說人話就是這東西壓根不好部署在移動(dòng)端。

隨后,有許多研究人員提出了很多解決方案來加速注意力機(jī)制,例如早先蘋果提出的 Mobile-Former 以及前段時(shí)間的 EdgeNeXt,均是針對(duì)移動(dòng)端設(shè)計(jì)的。

本文的思路也很簡(jiǎn)單,就是仿造 CNNs 圈子中的移動(dòng)端之王—— MobileNet 來進(jìn)行一系列的設(shè)計(jì)和優(yōu)化。對(duì)于端側(cè)部署來講,模型的參數(shù)量(例如 Flash 大小)和延遲對(duì)資源受限型的硬件來說至關(guān)重要。因此,作者結(jié)合了細(xì)粒度聯(lián)合搜索策略,提出了一種具備低延遲和大小的高效網(wǎng)絡(luò)——EfficientFormerV2 ,該網(wǎng)絡(luò)在同等量級(jí)參數(shù)量和延遲下比 MobileNetV2 可以高出4個(gè)百分點(diǎn)(ImageNet驗(yàn)證集)。

28605084-7f5c-11ed-8abf-dac502259ad0.pngComparison of model size, speed, and performance

上圖所示模型是在 ImageNet-1K 上進(jìn)行訓(xùn)練所獲得的 Top-1 精度。延遲是在 iPhone 12(iOS 16)上進(jìn)行測(cè)量的。每個(gè)圓圈的面積與參數(shù)數(shù)量(模型大?。┏烧???梢钥闯觯珽fficientFormerV2 在模型更小和推理速度更快的情況下獲得了更高的性能。

Framework

先來看下整體的網(wǎng)絡(luò)長什么樣子:

288aa5a0-7f5c-11ed-8abf-dac502259ad0.pngOverall

既然都叫 EfficientFormerV2,那必然是在上一版的基礎(chǔ)上改進(jìn)了,如圖(a)所示。沒什么特別新奇的,一個(gè)很常規(guī)的 ViT 型架構(gòu)。下面的圖表是作者統(tǒng)計(jì)的實(shí)驗(yàn)改進(jìn)結(jié)果:

29266526-7f5c-11ed-8abf-dac502259ad0.pngNumber of parameters, latency, and performance for various design choices

基于整體架構(gòu)圖和上述表格,讓我們逐步拆解看看究竟做了哪些改進(jìn)。

Token Mixers vs. Feed Forward Network

通常來說,結(jié)合局部信息可以有效提高性能,同時(shí)使 ViTs 對(duì)明確的位置嵌入缺失表現(xiàn)得更加穩(wěn)健。PoolFormerEfficientFormer 中都使用了 3×3 的平均池化層(如圖 2(a)所示)作為局部的Token Mixers。采用相同卷積核大小的深度可分離卷積(DWCONV)替換這些層不會(huì)帶來延遲開銷,同時(shí)性能也能提高 **0.6%**,參數(shù)量僅微漲 0.02M。此外,同 NASVit,作者也在 ViTs 的前饋網(wǎng)絡(luò)(FFN)中注入了局部信息建模層,這也有益于提高性能。

這里,作者直接將原來的 Pooling 層刪掉了(下采樣越大,理論感受野越大),而是直接替換成 BottleNeck 的形式,先用 1×1 卷積降維壓縮,再嵌入 3×3 的深度可分離卷積提取局部信息,最后再通過 1×1 的卷積升維。這樣做的一個(gè)好處是,這種修改有利于后續(xù)直接才用超參搜索技術(shù)搜索出具體模塊數(shù)量的網(wǎng)絡(luò)深度,以便在網(wǎng)絡(luò)的后期階段中提取局部和全局信息。

Search Space Refinement

通過調(diào)整網(wǎng)絡(luò)的深度即每個(gè)階段中的塊數(shù)和寬度即通道數(shù),可以發(fā)現(xiàn),更深和更窄的網(wǎng)絡(luò)可以帶來:

  • 更好的準(zhǔn)確性(0.2% 的性能提升)
  • 更少的參數(shù)(0.13M 的參數(shù)壓縮)
  • 更低的延遲(0.1ms 的推理加速)

同時(shí)將這個(gè)修改的網(wǎng)絡(luò)設(shè)置為后續(xù) NAS 搜素的 Baseline.

MHSA Improvements

一般的 Transformer 模塊都會(huì)包含兩個(gè)組件,即多頭注意力 MHSA 和全連接層 FFN. 作者隨后便研究了如何在不增加模型大小和延遲的情況下提高注意模塊性能的技術(shù)。

首先,通過 3×3 的卷積將局部信息融入到 Value 矩陣中,這一步跟 NASVitInception transformer 一樣。

其次,在 Head 維度之間添加 FC 層(就圖中標(biāo)識(shí)的Talking Head),增強(qiáng)不同頭之間的信息交互。

通過這些修改,可以發(fā)現(xiàn)性能進(jìn)一步提高了,與基線模型相比,準(zhǔn)確度達(dá)到了 80.8%,同時(shí)參數(shù)和延遲也基本保持一致。

Attention on Higher Resolution

加入注意力機(jī)制普遍都是能夠提升性能的。然而,將它應(yīng)用于高分辨率特征會(huì)降低端側(cè)的推理效率,因?yàn)樗哂信c空間分辨率成平方關(guān)系的時(shí)間復(fù)雜度。因此,作者僅在最后的 1/32 的空間分辨率下使用,而對(duì)于倒數(shù)的第二階段即 4 倍下采樣提出了另外一種 MHSA,這有助于將準(zhǔn)確率提高了 0.9% 同時(shí)加快推理效率。

先前的解決方案,例如 Cswin transformerSwin transformer 都是采用基于滑動(dòng)窗口的方式去壓縮特征維度,又或者像 Next-vit 一樣直接將 KeysValues 矩陣進(jìn)行下采樣壓縮,這些方法對(duì)于移動(dòng)端部署并不是一個(gè)最佳的選擇。這里也不難理解,以 Swin transformer 為例,它在每個(gè) stage 都需要進(jìn)行復(fù)雜的窗口劃分和重新排序,所以這種基于 windows 的注意力是很難在移動(dòng)設(shè)備上加速優(yōu)化的。而對(duì)于 Next-vit 來說表面上看雖然進(jìn)行了壓縮,但整個(gè) KeyValue 矩陣依舊需要全分辨率查詢矩陣(Query)來保持注意力矩陣乘法后的輸出分辨率。

本文方法的解決方案可以參考圖(d)和(e),整體思路是采用一個(gè)帶步長的注意力,實(shí)現(xiàn)上就是將所有的 QKV 均下采樣到固定的空間分辨率(這里是 1/32),并將注意力的輸出復(fù)原到原始分辨率以喂入下一層。(⊙o⊙)…,有點(diǎn)類似于把瓶頸層的思路又搬過來套。

Attention Downsampling

以往的下采樣方式大都是采用帶步長的卷積或者池化層直接進(jìn)行的。不過最近也有一部分工作在探討 Transformer 模塊內(nèi)部的下采樣方式,如 LeViTUniNet 提出通過注意力機(jī)制將特征分辨率減半,從而更好的整合全局上下文來進(jìn)感知下采樣。具體的做法也就是將 Query 中的 Token 數(shù)量減半,從而對(duì)注意力模塊的輸出進(jìn)行壓縮。

說到這里不經(jīng)意間有個(gè)疑問,Token 數(shù)量減少多少才是合適?況且,如果我們直接就對(duì)所有的查詢矩陣進(jìn)行降采樣的話,這對(duì)于較前的 stage 的特征提取是不利的,因?yàn)榫W(wǎng)絡(luò)的淺層更多的是提取諸如紋理、顏色、邊緣等 low-level 的信息,因此從經(jīng)驗(yàn)上來看是需要保持更高分辨率的。

作者的方法是提出一種結(jié)合局部和全局上下文融合的組合策略,如上圖(f)所示。為了得到下采樣的查詢,采用池化層作為靜態(tài)局部下采樣,而 3×3 DWCONV 則作為可學(xué)習(xí)的局部下采樣,并將結(jié)果拼接起來并投影到查詢矩陣中。此外,注意力下采樣模塊殘差連接到一個(gè)帶步長的卷積以形成局部-全局方式,類似于下采樣瓶頸 或倒置瓶頸層。

Super-Network-Search

上面定義完基礎(chǔ)的網(wǎng)絡(luò)架構(gòu)后,作者又進(jìn)一步的應(yīng)用了一種細(xì)粒度聯(lián)合搜索策略,具體算法步驟如下所示:

2946b952-7f5c-11ed-8abf-dac502259ad0.pngNAS

整體架構(gòu)沿用的是超網(wǎng)的結(jié)構(gòu)。

Conclusion

在這項(xiàng)工作中,作者全面研究混合視覺主干并驗(yàn)證對(duì)于端側(cè)更加友好的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)。此外,基于確定的網(wǎng)絡(luò)結(jié)構(gòu),進(jìn)一步提出了在大小和速度上的細(xì)粒度聯(lián)合搜索,并獲得了輕量級(jí)和推理速度超快的 EfficientFormerV2 模型。


		
			

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1699

    瀏覽量

    46050
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    145

    瀏覽量

    6026

原文標(biāo)題:更快更強(qiáng)!EfficientFormerV2來了!一種新的輕量級(jí)視覺Transformer

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一種新的通用視覺主干模型Vision Mamba

    CNN和Transformer常作為深度學(xué)習(xí)模型的首選基礎(chǔ)模塊,被應(yīng)用于各種場(chǎng)景,如文本、視覺、語音信號(hào)處理及其各種下游應(yīng)用。然而這兩個(gè)基礎(chǔ)模塊都有著其固有而互補(bǔ)的缺陷:CNN具有固定大小窗口的卷積
    的頭像 發(fā)表于 01-06 09:55 ?110次閱讀
    <b class='flag-5'>一種</b>新的通用<b class='flag-5'>視覺</b>主干模型Vision Mamba

    華為Flexus云服務(wù)器搭建SamWaf開源輕量級(jí)網(wǎng)站防火墻

    在當(dāng)今數(shù)字化高速發(fā)展的時(shí)代,網(wǎng)絡(luò)安全問題日益凸顯。為了保障網(wǎng)站的穩(wěn)定運(yùn)行和數(shù)據(jù)安全,我們可以借助華為 Flexus 云服務(wù)器搭建 SamWaf 開源輕量級(jí)網(wǎng)站防火墻。這不僅是次技術(shù)的挑戰(zhàn),更是為網(wǎng)站筑牢安全防線的重要舉措。
    的頭像 發(fā)表于 12-29 16:59 ?267次閱讀
    華為Flexus云服務(wù)器搭建SamWaf開源<b class='flag-5'>輕量級(jí)</b>網(wǎng)站防火墻

    EEPROM輕量級(jí)的簡(jiǎn)易類文件的數(shù)據(jù)讀寫庫:EEPROMFS

    小。 這里就給大家分享款EEPROM輕量級(jí)的簡(jiǎn)易類文件的數(shù)據(jù)讀寫庫:EEPROMFS 1 關(guān)于EEPROMFS EEPROMFS,基于EEPROM的簡(jiǎn)易類文件的數(shù)據(jù)讀寫庫,方便做動(dòng)態(tài)功能增減時(shí)參數(shù)管理
    的頭像 發(fā)表于 11-15 16:31 ?549次閱讀
    EEPROM<b class='flag-5'>輕量級(jí)</b>的簡(jiǎn)易類文件的數(shù)據(jù)讀寫庫:EEPROMFS

    自動(dòng)駕駛中直說的BEV+Transformer到底是個(gè)啥?

    (Bird’s Eye View)+Transformer”是兩個(gè)方向的技術(shù),BEV是一種全新的3D坐標(biāo)系,而Transformer則是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型,BEV+
    的頭像 發(fā)表于 11-07 11:19 ?478次閱讀
    自動(dòng)駕駛中<b class='flag-5'>一</b>直說的BEV+<b class='flag-5'>Transformer</b>到底是個(gè)啥?

    電裝與京瓷合作開展輕量級(jí)太陽能發(fā)電系統(tǒng)實(shí)證實(shí)驗(yàn)

    株式會(huì)社電裝(以下簡(jiǎn)稱電裝)與京瓷株式會(huì)社(以下簡(jiǎn)稱京瓷)共同宣布,為提高現(xiàn)有工廠自發(fā)電率,將從2024年10月到2025年9月在電裝的西尾工廠進(jìn)行輕量級(jí)太陽能發(fā)電系統(tǒng)的實(shí)證實(shí)驗(yàn)。
    的頭像 發(fā)表于 08-16 16:36 ?519次閱讀

    國產(chǎn)芯上運(yùn)行TinyMaxi輕量級(jí)的神經(jīng)網(wǎng)絡(luò)推理庫-米爾基于芯馳D9國產(chǎn)商顯板

    本篇測(cè)評(píng)由優(yōu)秀測(cè)評(píng)者“短笛君”提供。本文將介紹基于米爾電子MYD-YD9360商顯板(米爾基于芯馳D9360國產(chǎn)開發(fā)板)的TinyMaxi輕量級(jí)的神經(jīng)網(wǎng)絡(luò)推理庫方案測(cè)試。 算力測(cè)試TinyMaix
    發(fā)表于 08-09 18:26

    基于Openharmony輕量級(jí)操作系統(tǒng)的分布式數(shù)據(jù)管理開發(fā)案例

    實(shí)驗(yàn)內(nèi)容本例程演示如何在小凌派-RK2206開發(fā)板上使用OpenHarmony輕量級(jí)操作系統(tǒng)進(jìn)行KvStore(即分布式數(shù)據(jù)管理)數(shù)據(jù)讀寫。例程:(1)創(chuàng)建兩個(gè)線程,個(gè)負(fù)責(zé)寫入KvStore存儲(chǔ)
    的頭像 發(fā)表于 08-07 08:23 ?1009次閱讀
    基于Openharmony<b class='flag-5'>輕量級(jí)</b>操作系統(tǒng)的分布式數(shù)據(jù)管理開發(fā)案例

    鴻蒙語言基礎(chǔ)類庫:ohos.data.storage 輕量級(jí)存儲(chǔ)

    輕量級(jí)存儲(chǔ)為應(yīng)用提供key-value鍵值型的文件數(shù)據(jù)處理能力,支持應(yīng)用對(duì)數(shù)據(jù)進(jìn)行輕量級(jí)存儲(chǔ)及查詢。數(shù)據(jù)存儲(chǔ)形式為鍵值對(duì),鍵的類型為字符串型,值的存儲(chǔ)數(shù)據(jù)類型包括數(shù)字型、字符型、布爾型。
    的頭像 發(fā)表于 07-15 18:21 ?1007次閱讀

    國產(chǎn)芯上運(yùn)行TinyMaxi輕量級(jí)的神經(jīng)網(wǎng)絡(luò)推理庫-米爾基于芯馳D9國產(chǎn)商顯板

    本篇測(cè)評(píng)由與非網(wǎng)的優(yōu)秀測(cè)評(píng)者“短笛君”提供。本文將介紹基于米爾電子MYD-YD9360商顯板(米爾基于芯馳D9360國產(chǎn)開發(fā)板)的TinyMaxi輕量級(jí)的神經(jīng)網(wǎng)絡(luò)推理庫方案測(cè)試。算力測(cè)試
    的頭像 發(fā)表于 07-05 08:02 ?1914次閱讀
    國產(chǎn)芯上運(yùn)行TinyMaxi<b class='flag-5'>輕量級(jí)</b>的神經(jīng)網(wǎng)絡(luò)推理庫-米爾基于芯馳D9國產(chǎn)商顯板

    消息稱蘋果正在研發(fā)輕量級(jí)AR眼鏡

    在科技巨頭們競(jìng)相探索未來穿戴設(shè)備的浪潮中,蘋果公司的則消息引起了業(yè)界的廣泛關(guān)注。據(jù)多家媒體報(bào)道,蘋果正在秘密研發(fā)款名為“Apple Glass”的輕量級(jí)增強(qiáng)現(xiàn)實(shí)(AR)眼鏡,這款眼鏡旨在為用戶
    的頭像 發(fā)表于 06-24 11:34 ?744次閱讀

    部署在邊緣設(shè)備上的輕量級(jí)模型

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)邊緣AI算法是一種將人工智能(AI)算法和計(jì)算能力放置在接近數(shù)據(jù)源的終端設(shè)備中的策略。這種算法通常被部署在邊緣設(shè)備上,如傳感器、智能手機(jī)、攝像頭等,以便在靠近數(shù)據(jù)源
    的頭像 發(fā)表于 05-11 00:17 ?2642次閱讀

    深度詳解嵌入式系統(tǒng)專用輕量級(jí)框架設(shè)計(jì)

    MR 框架是專為嵌入式系統(tǒng)設(shè)計(jì)的輕量級(jí)框架。充分考慮了嵌入式系統(tǒng)在資源和性能方面的需求。通過提供標(biāo)準(zhǔn)化的設(shè)備管理接口,極大簡(jiǎn)化了嵌入式應(yīng)用開發(fā)的難度,幫助開發(fā)者快速構(gòu)建嵌入式應(yīng)用程序。
    發(fā)表于 04-27 02:32 ?1019次閱讀
    深度詳解嵌入式系統(tǒng)專用<b class='flag-5'>輕量級(jí)</b>框架設(shè)計(jì)

    未來輕量級(jí)深度學(xué)習(xí)技術(shù)探索

    除了輕量級(jí)架構(gòu)設(shè)計(jì)外,作者提到了可以應(yīng)用于壓縮給定架構(gòu)的各種高效算法。例如,量化方法 旨在減少數(shù)據(jù)所需的存儲(chǔ)空間,通常是通過用8位或16位數(shù)字代替32位浮點(diǎn)數(shù),甚至使用二進(jìn)制值表示數(shù)據(jù)。
    發(fā)表于 04-23 15:54 ?424次閱讀
    未來<b class='flag-5'>輕量級(jí)</b>深度學(xué)習(xí)技術(shù)探索

    視覺Transformer基本原理及目標(biāo)檢測(cè)應(yīng)用

    視覺Transformer般結(jié)構(gòu)如圖2所示,包括編碼器和解碼器兩部分,其中編碼器每層包括個(gè)多頭自注意力模塊(self-attenti
    發(fā)表于 04-03 10:32 ?3686次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>Transformer</b>基本原理及目標(biāo)檢測(cè)應(yīng)用

    百度智能云推出全新輕量級(jí)大模型

    在近日舉辦的百度智能云千帆產(chǎn)品發(fā)布會(huì)上,三款全新的輕量級(jí)大模型——ERNIE Speed、ERNIE Lite以及ERNIE Tiny,引起了業(yè)界的廣泛關(guān)注。相較于傳統(tǒng)的千億級(jí)別參數(shù)大模型,這些輕量級(jí)大模型在參數(shù)量上有了顯著減少,為客戶提供了更加靈活和經(jīng)濟(jì)高效的解決方案。
    的頭像 發(fā)表于 03-22 10:28 ?688次閱讀