0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邁向更高效的圖像分類:解析DeiT模型的移植和適配

算能開發(fā)者社區(qū) ? 2023-11-23 08:33 ? 次閱讀

1. DeiT概述

1.1 項目簡介

Deit(Data-efficient image Transformers)是由Facebook與索邦大學(xué)的Matthieu Cord教授合作開發(fā)的圖像分類模型。作為一種基于Transformer架構(gòu)的深度學(xué)習(xí)模型,DeiT在保持高性能的同時,能夠大大提高數(shù)據(jù)效率,為圖像識別領(lǐng)域帶來了顛覆性的變化。

與傳統(tǒng)的CNN不同,DeiT模型采用了Transformer的自注意力機制,將圖像分割成若干個固定大小的塊,并對每個塊進行編碼,捕捉圖像中的長程依賴關(guān)系。

本文將為大家介紹如何將DeiT移植到算能BM1684X平臺上。

1.2 模型介紹

DeiT目前有3個版本的模型(tiny, small, base),均由12個Attention結(jié)構(gòu)組成,模型區(qū)別在于輸入的header個數(shù)及embed_dim不同。

Attention結(jié)構(gòu)如下圖所示:

f5dd2bea-8997-11ee-9788-92fbcf53809c.pngattention

不同版本的模型具體參數(shù)區(qū)別如下表:

f5f01ad4-8997-11ee-9788-92fbcf53809c.pngversion

2. 模型移植

以下部分介紹如何將DeiT移植到算能BM1684X平臺上。

2.1 模型trace

原始DeiT模型基于Pytorch框架訓(xùn)練及推理。算能TPU-MLIR工具鏈可以編譯通過jit trace過的靜態(tài)模型。

首先進行模型trace,命令如下,需要修改原推理代碼。

f612c46c-8997-11ee-9788-92fbcf53809c.pngtrace

2.2 模型編譯

以下介紹如何使用算能TPU-MLIR工具鏈將上一步trace過的模型編譯成可以在算能BM1684X上推理的bmodel。在模型移植過程中遇到一些算子邊界的處理問題,均已修復(fù)。

f6221b60-8997-11ee-9788-92fbcf53809c.pngtransformf634c6ac-8997-11ee-9788-92fbcf53809c.pngdeploy

2.3 精度測試

DeiT為分類模型,精度測試采用topk來進行。

精度測試及性能測試結(jié)果如下:

f649d45c-8997-11ee-9788-92fbcf53809c.pngprecision

3 小結(jié)

總體看移植過程相對順利,在解決了部分算子邊界問題之后可以成功編譯出bmodel。F32精度基本可與原始框架對齊。由于第一個Conv stride > 15,在進行F16/BF16轉(zhuǎn)換時遇到比對問題,這部分代碼目前仍在重構(gòu),生成bmodel過程中這部分采用F32混精度處理。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1086

    瀏覽量

    40494
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3255

    瀏覽量

    48899
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5506

    瀏覽量

    121255
收藏 人收藏

    評論

    相關(guān)推薦

    Mamba入局圖像復(fù)原,達成新SOTA

    MambaIRv2,更高性能、更高效率!另外還有ACM MM 2024上的Freqmamba方法,在圖像去雨任務(wù)中取得了SOTA性能! 顯然,這種基于Mamba的方法在圖像復(fù)原領(lǐng)域,比
    的頭像 發(fā)表于 12-30 18:09 ?125次閱讀
    Mamba入局<b class='flag-5'>圖像</b>復(fù)原,達成新SOTA

    AI模型部署邊緣設(shè)備的奇妙之旅:目標檢測模型

    的規(guī)律,從而降低了模型在新數(shù)據(jù)上的泛化能力。 對抗攻擊易感性:圖像分類模型容易受到精心設(shè)計的對抗樣本的影響,這些樣本在人類看來幾乎與原始圖像
    發(fā)表于 12-19 14:33

    高通AI Hub:輕松實現(xiàn)Android圖像分類

    高通AI Hub為開發(fā)者提供了一個強大的平臺,以優(yōu)化、驗證和部署在Android設(shè)備上的機器學(xué)習(xí)模型。這篇文章將介紹如何使用高通AI Hub進行圖像分類的程式碼開發(fā),并提供一個實際的例子來展示其在Android平臺上的應(yīng)用。
    的頭像 發(fā)表于 11-26 01:03 ?259次閱讀
    高通AI Hub:輕松實現(xiàn)Android<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>

    使用卷積神經(jīng)網(wǎng)絡(luò)進行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進行圖像分類是一個涉及多個步驟的過程。 1. 問題定義 確定目標 :明確你想要分類圖像類型,例如貓和狗、不同的植物種類等。 數(shù)據(jù)需求 :確定需要多少數(shù)據(jù)以及
    的頭像 發(fā)表于 11-15 15:01 ?321次閱讀

    高效模型的推理綜述

    模型由于其在各種任務(wù)中的出色表現(xiàn)而引起了廣泛的關(guān)注。然而,大模型推理的大量計算和內(nèi)存需求對其在資源受限場景的部署提出了挑戰(zhàn)。業(yè)內(nèi)一直在努力開發(fā)旨在提高大模型推理效率的技術(shù)。本文對現(xiàn)有的關(guān)于
    的頭像 發(fā)表于 11-15 11:45 ?422次閱讀
    <b class='flag-5'>高效</b>大<b class='flag-5'>模型</b>的推理綜述

    主動學(xué)習(xí)在圖像分類技術(shù)中的應(yīng)用:當(dāng)前狀態(tài)與未來展望

    本文對近年來提出的主動學(xué)習(xí)圖像分類算法進行了詳細綜述,并根據(jù)所用樣本數(shù)據(jù)處理及模型優(yōu)化方案,將現(xiàn)有算法分為三類:基于數(shù)據(jù)增強的算法,包括利用圖像增廣來擴充訓(xùn)練數(shù)據(jù),或者根據(jù)
    的頭像 發(fā)表于 11-14 10:12 ?333次閱讀
    主動學(xué)習(xí)在<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>技術(shù)中的應(yīng)用:當(dāng)前狀態(tài)與未來展望

    字節(jié)發(fā)布SeedEdit圖像編輯模型

    近日,字節(jié)跳動公司在其豆包大模型團隊的官方網(wǎng)站上,正式公布了其最新的通用圖像編輯模型——SeedEdit。這款創(chuàng)新性的圖像編輯模型,為用戶提
    的頭像 發(fā)表于 11-12 10:43 ?274次閱讀

    AI大模型圖像識別中的優(yōu)勢

    AI大模型圖像識別中展現(xiàn)出了顯著的優(yōu)勢,這些優(yōu)勢主要源于其強大的計算能力、深度學(xué)習(xí)算法以及大規(guī)模的數(shù)據(jù)處理能力。以下是對AI大模型圖像識別中優(yōu)勢的介紹: 一、
    的頭像 發(fā)表于 10-23 15:01 ?728次閱讀

    浪潮信息源2.0大模型與百度PaddleNLP全面適配

    近日,浪潮信息宣布其開源大模型源2.0已全面適配百度PaddleNLP。這一舉措標志著大模型開發(fā)生態(tài)正加速進化,為用戶提供了更加便捷、高效的大模型
    的頭像 發(fā)表于 10-17 18:15 ?534次閱讀

    GaN如何實現(xiàn)更高效、更緊湊的電源

    電子發(fā)燒友網(wǎng)站提供《GaN如何實現(xiàn)更高效、更緊湊的電源.pdf》資料免費下載
    發(fā)表于 09-12 10:00 ?0次下載
    GaN如何實現(xiàn)<b class='flag-5'>更高效</b>、更緊湊的電源

    計算機視覺怎么給圖像分類

    圖像分類是計算機視覺領(lǐng)域中的一項核心任務(wù),其目標是將輸入的圖像自動分配到預(yù)定義的類別集合中。這一過程涉及圖像的特征提取、特征表示以及分類器的
    的頭像 發(fā)表于 07-08 17:06 ?750次閱讀

    如何使用PyTorch構(gòu)建更高效的人工智能

    術(shù)界和工業(yè)界得到了廣泛應(yīng)用。本文將深入探討如何使用PyTorch構(gòu)建更高效的人工智能系統(tǒng),從框架基礎(chǔ)、模型訓(xùn)練、實戰(zhàn)應(yīng)用等多個方面進行詳細解析。
    的頭像 發(fā)表于 07-02 13:12 ?393次閱讀

    鴻蒙應(yīng)用模型:【應(yīng)用模型解析

    應(yīng)用模型是系統(tǒng)為開發(fā)者提供的應(yīng)用程序所需能力的抽象提煉,它提供了應(yīng)用程序必備的組件和運行機制。有了應(yīng)用模型,開發(fā)者可以基于一套統(tǒng)一的模型進行應(yīng)用開發(fā),使應(yīng)用開發(fā)更簡單、高效。
    的頭像 發(fā)表于 05-31 11:38 ?529次閱讀
    鴻蒙應(yīng)用<b class='flag-5'>模型</b>:【應(yīng)用<b class='flag-5'>模型</b>】<b class='flag-5'>解析</b>

    一種利用光電容積描記(PPG)信號和深度學(xué)習(xí)模型對高血壓分類的新方法

    ,因此在醫(yī)療信號方面它比其他模型產(chǎn)生了更高的準確度結(jié)果。從我們提出的模型 AvgPool_VGG-16 獲得的結(jié)果表明,平均池化是比最大池化更適合信號圖像
    發(fā)表于 05-11 20:01

    搭載星火認知大模型的AI鼠標:一鍵呼出AI助手,辦公更高效

    搭載星火認知大模型的AI鼠標:一鍵呼出AI助手,辦公更高效 在這個AI時代,如果你想在激烈競爭的職場中不被淘汰,訊飛AI鼠標AM30就是你的不二選擇。 這款鼠標搭載了星火認知大模型AI,為你提供了
    的頭像 發(fā)表于 03-25 11:52 ?510次閱讀
    搭載星火認知大<b class='flag-5'>模型</b>的AI鼠標:一鍵呼出AI助手,辦公<b class='flag-5'>更高效</b>