0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用于電池供電設(shè)計中AI/ML推理的MCU方法

eeDesigner ? 來源:物聯(lián)網(wǎng)評論 ? 作者:物聯(lián)網(wǎng)評論 ? 2024-03-17 10:52 ? 次閱讀

人工智能AI)作為討論的關(guān)鍵話題的出現(xiàn)可能是由于OpenAI等大規(guī)模AI引擎及其生成式預(yù)訓(xùn)練轉(zhuǎn)換器(GPT)語言模型架構(gòu)的能力不斷增強。雖然這些系統(tǒng)在數(shù)據(jù)中心級別運行,GPU 提供處理能力,但較小規(guī)模的 AI 工作負載可以提高高度資源受限的嵌入式終端產(chǎn)品的性能和用戶體驗。

在支持人工智能的電子貓瓣中,ML可以被訓(xùn)練來區(qū)分一只貓和另一只貓,只為允許進入的貓打開門。

以支持 AI 的電子貓瓣為例。使用機器學(xué)習(xí),首先要對其進行訓(xùn)練,以將貓與其他動物或物體區(qū)分開來。通過進一步的訓(xùn)練,它可以學(xué)會將一只貓與所有其他貓區(qū)分開來,并單獨為那只貓打開大門。結(jié)果是家里對其他貓是安全的,我們的貓不需要戴RFID項圈或類似不舒服的舊技術(shù)就可以進入家。在這里,人工智能極大地改善了寵物及其主人的用戶體驗。

如果這個或其他人工智能增強的嵌入式應(yīng)用程序要使用電池供電,那么低功耗是一個關(guān)鍵要求。如今,大多數(shù)此類小型且資源受限的應(yīng)用都將基于通用微控制器。雖然可以使用微控制器實現(xiàn)機器學(xué)習(xí)功能,但這些設(shè)備難以快速執(zhí)行 AI 任務(wù),并且在執(zhí)行 AI 功能時消耗過多的功率。服務(wù)器級 GPU 提供了嵌入式應(yīng)用所需的處理能力,但遠遠超出了其成本和功耗預(yù)算。

為了創(chuàng)建電池供電、支持 AI 的產(chǎn)品,設(shè)計人員需要一種更好的方法來實現(xiàn)機器學(xué)習(xí)工作負載,同時仍保留通用微控制器的熟悉工具和指令集。Alif Semiconductor 開發(fā)的一種方法將新的處理架構(gòu)與 Arm Cortex-M 實時內(nèi)核相結(jié)合,以提供一類新的 AI 優(yōu)化微控制器,輕松應(yīng)對在電池電源上實現(xiàn) AI 的挑戰(zhàn)。我們將展示與傳統(tǒng)微控制器相比,這種方法在執(zhí)行 AI 工作負載時如何提高性能和能效。

AI 工作負載的特殊性

GPU 之所以用于大規(guī)模 AI 部署,是因為它們能夠并行執(zhí)行許多進程,這對于為 AI 創(chuàng)建有效的訓(xùn)練環(huán)境至關(guān)重要。神經(jīng)網(wǎng)絡(luò)通過同時處理多個大型數(shù)據(jù)集來學(xué)習(xí)。

例如,即使是單個圖像也是一組大型數(shù)據(jù)集,這些數(shù)據(jù)集由圖像的高度和寬度以及每個像素上的數(shù)據(jù)定義。當我們將其升級為視頻時,我們將像素數(shù)據(jù)的變化作為時間的函數(shù)添加到此訓(xùn)練過程中。與并行處理 GPU 不同,通用微控制器中的標準 CPU 串聯(lián)處理數(shù)據(jù),一次掃描一個像素,而不是像 GPU 那樣感知整個畫面。這意味著,為了像相對較慢的GPU一樣快速地執(zhí)行相同的圖像識別任務(wù)(例如,準確識別寵物貓),微控制器的CPU在掃描每個像素時必須以更高的速度運行。

這種操作往往會長時間將 CPU 內(nèi)核驅(qū)動到其最大工作頻率。由于現(xiàn)在幾乎所有的處理能力都分配給了人工智能任務(wù),微控制器的整體性能可能會受到影響。同時,設(shè)備的功耗將增加到電池運行不再可行的程度。這表明在基于傳統(tǒng)通用微控制器的電池供電產(chǎn)品中實現(xiàn)有用的 AI 功能的難度。

TinyML 支持簡單的 AI 工作負載,但可能無法解決貓瓣場景

雖然構(gòu)建基于通用微控制器的 AI 增強型電池供電產(chǎn)品具有挑戰(zhàn)性,但絕非不可能。一種解決方案是降低工作負載的復(fù)雜性,直到設(shè)備的功耗和性能可控為止。TinyML 是機器學(xué)習(xí)的一個子集,其運行功率約為毫瓦,而不是用于大規(guī)模 AI 工作負載的 GPU 消耗的數(shù)十瓦功率。

通過利用專門設(shè)計的軟件庫進行資源受限的 AI 訓(xùn)練和實施,TinyML 使電池供電的設(shè)備能夠運行簡單的 AI 工作負載,例如使用加速度計進行手勢識別——這種類型的模型可用于智能可穿戴設(shè)備,以區(qū)分用戶執(zhí)行的不同練習(xí)。

也就是說,TinyML 工作負載很簡單,并且比面部識別等高級 AI 任務(wù)需要更少的內(nèi)存和處理能力。雖然有針對圖像處理的 TinyML 工作負載,例如對象跟蹤,但這些工作負載還沒有達到為我們的 AI 增強型貓瓣識別單個貓的水平。TinyML在改善最終產(chǎn)品的用戶體驗方面具有許多優(yōu)勢,但電池供電所需的低功耗是以犧牲更高級別的AI功能為代價的。

Arm Cortex-M55 和 Helium 在一定程度上支持類似 GPU 的操作

在設(shè)計 AI 增強產(chǎn)品時,另一種解決方案是選擇配備專為該任務(wù)而設(shè)計的處理內(nèi)核的微控制器,例如 Arm Cortex-M55。得益于新的矢量指令集擴展,即 Arm 的 Helium 技術(shù),Cortex-M55 器件能夠并行執(zhí)行算術(shù)運算,從而實現(xiàn)與 GPU 類似的操作,盡管規(guī)模較小。

這一點,以及微控制器架構(gòu)的其他發(fā)展,如Cortex-M55浮點單元(FPU),使Cortex-M55內(nèi)核能夠處理比典型的TinyML應(yīng)用更具挑戰(zhàn)性的AI工作負載。雖然該解決方案標志著使用通用微控制器時可以實現(xiàn)的 AI 工作負載復(fù)雜性的顯著提高,但仍然存在功耗問題,超出了電池供電產(chǎn)品的可行范圍。

通用微控制器的 AI 加速器

解決這個問題的秘訣在于 Arm 設(shè)計的新處理架構(gòu):Ethos-U microNPU。這種專用的神經(jīng)處理單元大大增強了 Cortex-M 內(nèi)核的性能,可用作嵌入式物聯(lián)網(wǎng)設(shè)備的 AI/ML 加速器。在需要 Cortex-M 微控制器控制功能的 AI 增強型最終產(chǎn)品中,AI/ML 計算可以直接在這種新的 microNPU 架構(gòu)上運行,其效率比在 Cortex-M CPU 上要高得多。

將 AI/ML 工作負載轉(zhuǎn)移到此特定于功能的內(nèi)核還允許主 Cortex-M 內(nèi)核在睡眠或低功耗模式下運行,從而在 AI 運行期間提供大量節(jié)能。此外,該 microNPU 可以使用 AI 篩選數(shù)據(jù),因此只有在 microNPU 推斷出應(yīng)用中存在需求時,才會啟動 Cortex-M 內(nèi)核的更高功能。通過使用 Ethos-U microNPU,通用 Cortex-M 微控制器不會因 AI/ML 工作負載而負擔過重,并且可以在不犧牲性能或電池壽命的情況下運行標準操作。

首批采用這種架構(gòu)的微控制器是 Alif Semiconductor 的 Ensemble 系列器件。在實際測試中,發(fā)現(xiàn)與其他 Cortex-M 設(shè)備相比,它們將 Cortex-M55 實時內(nèi)核和 Ethos-U55 microNPU 相結(jié)合,可將 AI 工作負載的能耗降低 90%。

得益于 microNPU 中的離線優(yōu)化和先進的無損模型壓縮算法,系統(tǒng)內(nèi)存需求減少多達 90%,機器學(xué)習(xí)模型大小減少多達 75%,從而支持了這一點。該系列為 32 位微控制器領(lǐng)域增加了一類新的器件,這些器件保留了通用微控制器的熟悉性,但具有高能效 AI/ML 推理的額外優(yōu)勢。

在運行 8 位 16×16 矩陣乘法的 Alif Ensemble 開發(fā)套件上的真實示例的現(xiàn)場演示中,通過在 Ensemble E3 內(nèi)的 Cortex-M55 上啟用氦矢量加速,Arm 能夠借助 CMSIS-DSP 原生庫函數(shù)和編譯器優(yōu)化,將執(zhí)行時間縮短多達 82%。

AI/ML 工作負載示例

通過堆疊多組 Cortex-M 和 Ethos-U 處理器配對,可以實現(xiàn)不同級別的 AI/ML 推理。例如,Ensemble 系列中最基本的器件使用單個 Cortex-M55 實時內(nèi)核,并由單個 Ethos-U55 microNPU AI/ML 加速器提供支持。Ensemble E3 是這個新的硬件加速 MCU 系列中第一個進入生產(chǎn)的產(chǎn)品?;鶞蕼y試表明,在 ImageNet 數(shù)據(jù)集上訓(xùn)練的 MobileNet V2 1.0 模型使用 Alif 的 microNPU 加速器執(zhí)行速度比在單獨工作的 Cortex-M55 MCU 上執(zhí)行的速度快 135 倍,執(zhí)行時間為 20 毫秒,而使用 Cortex-M55 內(nèi)核時則為近 3 秒。

請記住,Cortex-M55 的運行性能比上一代 CM 內(nèi)核高得多。每次推理使用的測量能量也急劇下降。加速操作的能效提高了 108 倍,功耗僅為 0.86mJ,而功耗為 62.4mJ。

真正有趣的是,當我們考慮該設(shè)備的雙核版本時,它建立在以前的微控制器的機器學(xué)習(xí)功能之上,增加了第二個更強大的 Cortex-M55 內(nèi)核,并帶有自己的按比例縮放的 Ethos-U microNPU。與第一個內(nèi)核結(jié)合使用時,可以創(chuàng)建兩層推理系統(tǒng),用于運行較低級別和較高級別的 AI/ML 工作負載。

在限制功耗的同時執(zhí)行 AI/ML 任務(wù)的另一個關(guān)鍵是低功耗模式,在這種模式下,大部分芯片都處于斷電狀態(tài)。由于只有實時時鐘和喚醒源仍處于活動狀態(tài),這些微控制器的功耗約為 1.0 μA,使其成為電池供電系統(tǒng)的理想解決方案。當系統(tǒng)需要喚醒時,Cortex-M55內(nèi)核可以以超低功耗運行,只需指示Ethos-U microNPU執(zhí)行推理任務(wù),該任務(wù)將決定是否應(yīng)該打開更多的Ensemble設(shè)備。

現(xiàn)在考慮一下這項技術(shù)對我們之前談到的人工智能電子貓瓣的影響。在我們之前的例子中,我們可以預(yù)期貓最初是通過某種形式的運動感應(yīng)、視頻監(jiān)控或兩者的組合檢測到的。持續(xù)的視頻源和相關(guān)的 AI 推理會消耗大量電量,因為它試圖識別我們的貓,無論這只貓是否還在幀中。

為了節(jié)省功耗,雙核 Ensemble 微控制器可以使用第一個 Cortex-M55 內(nèi)核的喚醒功能,首先使用低功耗傳感器檢測貓瓣前是否有運動。

一旦檢測到運動,第一個 Cortex-M55 內(nèi)核可以喚醒低級推理系統(tǒng)的 Ethos-U microNPU,以捕獲幾幀視頻源并分析數(shù)據(jù)以檢查是否有貓在那里;它可能是另一只動物或從相機前經(jīng)過的異物。如果在查看視頻后發(fā)現(xiàn)一只貓已經(jīng)接近了貓瓣,第一個 Cortex-M55 可以喚醒更高級別的推理系統(tǒng)的第二個 Ethos-U,以檢查它是否是我們的貓。

如果無法識別貓,系統(tǒng)可以通過恢復(fù)到較低級別的運動檢測系統(tǒng)來節(jié)省能源,直到新物體進入框架。如果確定是我們的貓,那么第二個microNPU可以喚醒第二個Cortex-M55系統(tǒng),并激活機制讓貓進來。Cat 及其系列仍然可以獲得支持 AI 的設(shè)備的卓越用戶體驗,但通過使用 Ensemble 設(shè)備中新穎的微控制器設(shè)計支持的兩層 AI 推理系統(tǒng),可以顯著降低功耗。

當面臨在電池供電的終端產(chǎn)品中實現(xiàn)機器學(xué)習(xí)的困難時,這種處理架構(gòu)支持的兩層推理系統(tǒng)可以解決高功耗和處理能力有限的問題。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微控制器
    +關(guān)注

    關(guān)注

    48

    文章

    7600

    瀏覽量

    151755
  • mcu
    mcu
    +關(guān)注

    關(guān)注

    146

    文章

    17229

    瀏覽量

    351967
  • 電池供電
    +關(guān)注

    關(guān)注

    0

    文章

    255

    瀏覽量

    22199
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8428

    瀏覽量

    132850
收藏 人收藏

    評論

    相關(guān)推薦

    利用TinyML在MCU上實現(xiàn)AI/ML推論工作

    眾所皆知,MCU運算力有限(相對于IoT網(wǎng)關(guān)、手機、計算機),而AI/ML向來耗用運算力,如此TinyML的技術(shù)主張豈不矛盾?事實上,MCU的運算力也非如刻板印象
    發(fā)表于 09-20 11:10 ?2215次閱讀

    AI:對物聯(lián)網(wǎng)安全的影響

    維護,機器數(shù)據(jù)用于確定在役設(shè)備的狀況,以精確地預(yù)測何時應(yīng)該進行維護。這種方法可以節(jié)省大量成本通過例行或基于時間的預(yù)防性維護,因為任務(wù)僅在需要時執(zhí)行,并且有希望在系統(tǒng)故障之前執(zhí)行。參與該服務(wù)的機器所有者
    發(fā)表于 05-29 10:47

    NVIDIA 在首個AI推理基準測試中大放異彩

    首個獨立AI推理基準測試 ——MLPerf Inference 0.5取得第一名。由于推理一直是AI市場中最大、同時也是最具競爭力的領(lǐng)域,
    發(fā)表于 11-08 19:44

    基于SRAM的方法可以加速AI推理

    基于SRAM的方法可加速AI推理
    發(fā)表于 12-30 07:28

    Dllite_micro (輕量級的 AI 推理框架)

    DLLite-Micro 是一個輕量級的 AI 推理框架,可以為 OpenHarmony OS 的輕量設(shè)備和小型設(shè)備提供深度模型的推理能力DLLite-Micro 向開發(fā)者提供清晰、易上手的北向接口
    發(fā)表于 08-05 11:40

    電池供電方法有哪些?

    電池供電方法有哪些?
    發(fā)表于 01-25 07:23

    深度剖析OpenHarmony AI調(diào)度管理與推理接口

    1 簡介AI任務(wù)管理與統(tǒng)一的推理能力提供了接口的統(tǒng)一標準系統(tǒng)上CPU提供了AI任務(wù)調(diào)度管理的能力,對AI的能力進行了開放的推理
    發(fā)表于 03-25 11:15

    X-CUBE-AI和NanoEdge AI Studio在MLAI開發(fā)環(huán)境的區(qū)別是什么?

    我想知道 X-CUBE-AI 和 NanoEdge AI Studio 在 MLAI 開發(fā)環(huán)境的區(qū)別。我可以在任何一個開發(fā)環(huán)境
    發(fā)表于 12-05 06:03

    如何在STM32上開始使用ML &AI的選項?

    我對在 STM32 上使用 MLAI 很感興趣,在花了一些時間查看 ST 文檔后,我認為使用 NanoEdge AI Studio + ST 板是幫助我理解事物的最快方法。據(jù)我所
    發(fā)表于 12-06 07:35

    Ai 部署的臨界考慮電子指南

    %數(shù)據(jù)中心的工作量。平方GPU對培訓(xùn)工作量有效,但在人工智能的所有不同階段都不需要GPU。在2021年的一項研究,56%的研究受訪者將成本列為他們面臨的最重大挑戰(zhàn)實施AI/ML解決方案。
    發(fā)表于 08-04 07:25

    HarmonyOS:使用MindSpore Lite引擎進行模型推理

    場景介紹 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件設(shè)備 AI 模型推理的功能,目前已經(jīng)在圖像分類、目標識別、人臉識別、文字識別等應(yīng)用中廣泛使用。 本文介紹
    發(fā)表于 12-14 11:41

    設(shè)計一個高效的MCU AI工具鏈實現(xiàn)嵌入式AI推理

    如今在嵌入式開發(fā)領(lǐng)域,如何實現(xiàn)嵌入式AI推理是一個熱門話題。其中,如何在低算力、低功耗、低成本的MCU上部署AI應(yīng)用,是開發(fā)者普遍面臨的一個設(shè)計“痛點”。 在硬件方面,
    的頭像 發(fā)表于 06-06 18:05 ?2518次閱讀

    電池供電camera 的應(yīng)用

    Other Parts Discussed in Post: OPT3004Betty Guo 在電池供電的應(yīng)用,功耗是非常重要的指標。電池供電
    的頭像 發(fā)表于 01-15 14:40 ?896次閱讀
    <b class='flag-5'>電池</b><b class='flag-5'>供電</b>camera<b class='flag-5'>中</b> 的應(yīng)用

    GTC2022大會亮點:Modulus用于開發(fā)physics-ML模型的AI框架

    GTC2022大會亮點:Modulus用于開發(fā)physics-ML模型的AI框架,速度比數(shù)值方法快許多個數(shù)量級。
    的頭像 發(fā)表于 03-24 17:30 ?1798次閱讀
    GTC2022大會亮點:Modulus<b class='flag-5'>用于</b>開發(fā)physics-<b class='flag-5'>ML</b>模型的<b class='flag-5'>AI</b>框架

    用于AI推理的VCK5000產(chǎn)品簡介

    電子發(fā)燒友網(wǎng)站提供《用于AI推理的VCK5000產(chǎn)品簡介.pdf》資料免費下載
    發(fā)表于 09-14 09:39 ?0次下載
    <b class='flag-5'>用于</b><b class='flag-5'>AI</b><b class='flag-5'>推理</b>的VCK5000產(chǎn)品簡介