0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣AI應(yīng)用的開發(fā)流程

德州儀器 ? 來源:德州儀器 ? 作者:德州儀器 ? 2022-04-09 13:31 ? 次閱讀

如果在沒有嵌入式處理器供應(yīng)商提供的合適工具和軟件的支持下,既想設(shè)計高能效的邊緣人工智能 (AI) 系統(tǒng),同時又要加快產(chǎn)品上市時間,這項工作難免會冗長乏味。面臨的一系列挑戰(zhàn)包括選擇恰當(dāng)?shù)?a target="_blank">深度學(xué)習(xí)模型、針對性能和精度目標(biāo)對模型進(jìn)行訓(xùn)練和優(yōu)化,以及學(xué)習(xí)使用在嵌入式邊緣處理器上部署模型的專用工具。

從模型選擇到在處理器上部署,TI 可免費提供相關(guān)工具、軟件和服務(wù),為您深度神經(jīng)網(wǎng)絡(luò) (DNN) 開發(fā)工作流程的每一步保駕護(hù)航。下面讓我們來了解如何不借助手動工具或手動編程來選擇模型、隨時隨地訓(xùn)練模型并將其無縫部署到 TI 處理器上,從而實現(xiàn)硬件加速推理。

邊緣AI應(yīng)用的開發(fā)流程

圖 1:邊緣 AI 應(yīng)用的開發(fā)流程

第一步:選擇模型

邊緣 AI 系統(tǒng)開發(fā)的首要任務(wù)是選擇合適的 DNN 模型,同時要兼顧系統(tǒng)的性能、精度和功耗目標(biāo)。GitHub 上的TI 邊緣 AI Model Zoo等工具可助您加速此流程。

Model Zoo 廣泛匯集了 TensorFlow、PyTorch 和 MXNet 框架中常用的開源深度學(xué)習(xí)模型。這些模型在公共數(shù)據(jù)集上經(jīng)過預(yù)訓(xùn)練和優(yōu)化,可以在 TI 適用于邊緣 AI 的處理器上高效運行。TI 會定期使用開源社區(qū)中的新模型以及 TI 設(shè)計的模型對 Model Zoo 進(jìn)行更新,為您提供性能和精度經(jīng)過優(yōu)化的廣泛模型選擇。

Model Zoo 囊括數(shù)百個模型,TI 模型選擇工具(如圖 2 所示)可以幫助您在不編寫任何代碼的情況下,通過查看和比較性能統(tǒng)計數(shù)據(jù)(如推理吞吐量、延遲、精度和雙倍數(shù)據(jù)速率帶寬),快速比較和找到適合您 AI 任務(wù)的模型。

邊緣AI應(yīng)用的開發(fā)流程

圖 2:TI 模型選擇工具

第二步:訓(xùn)練和優(yōu)化模型

選擇模型后,下一步是在 TI 處理器上對其進(jìn)行訓(xùn)練或優(yōu)化,以獲得出色的性能和精度。憑借我們的軟件架構(gòu)和開發(fā)環(huán)境,您可隨時隨地訓(xùn)練模型。

從 TI Model Zoo 中選擇模型時,借助訓(xùn)練腳本可讓您在自定義數(shù)據(jù)集上為特定任務(wù)快速傳輸和訓(xùn)練模型,而無需花費較長時間從頭開始訓(xùn)練或使用手動工具。訓(xùn)練腳本、框架擴(kuò)展和量化感知培訓(xùn)工具可幫助您優(yōu)化自己的 DNN 模型。

第三步:評估模型性能

在開發(fā)邊緣 AI 應(yīng)用之前,需要在實際硬件上評估模型性能。

TI 提供靈活的軟件架構(gòu)和開發(fā)環(huán)境,您可以在 TensorFlow Lite、ONNX RunTime 或 TVM 和支持 Neo AI DLR 的 SageMaker Neo 運行環(huán)境引擎三者中選擇習(xí)慣的業(yè)界標(biāo)準(zhǔn) PythonC++ 應(yīng)用編程接口 (API),只需編寫幾行代碼,即可隨時隨地訓(xùn)練自己的模型,并將模型編譯和部署到 TI 硬件上。在這些業(yè)界通用運行環(huán)境引擎的后端,我們的TI 深度學(xué)習(xí) (TIDL) 模型編譯和運行環(huán)境工具可讓您針對 TI 的硬件編譯模型,將編譯后的圖或子圖部署到深度學(xué)習(xí)硬件加速器上,并在無需任何手動工具的情況下實現(xiàn)卓越的處理器推理性能。

在編譯步驟中,訓(xùn)練后量化工具可以自動將浮點模型轉(zhuǎn)換為定點模型。該工具可通過配置文件實現(xiàn)層級混合精度量化(8 位和 16 位),從而能夠足夠靈活地調(diào)整模型編譯,以獲得出色的性能和精度。

不同常用模型的運算方式各不相同。同樣位于 GitHub 上的 TI 邊緣 AI 基準(zhǔn)工具可幫助您為 TI Model Zoo 中的模型無縫匹配 DNN 模型功能,并作為自定義模型的參考。

評估 TI 處理器模型性能的方式有兩種:TDA4VM 入門套件評估模塊 (EVM) 或 TI Edge AI Cloud,后者是一項免費在線服務(wù),可支持遠(yuǎn)程訪問 TDA4VM EVM,以評估深度學(xué)習(xí)推理性能。借助針對不同任務(wù)和運行時引擎組合的數(shù)個示例腳本,五分鐘之內(nèi)便可在 TI 硬件上編程、部署和運行加速推理,同時收集基準(zhǔn)測試數(shù)據(jù)。

第四步:部署邊緣 AI 應(yīng)用程序

您可以使用開源 Linux 和業(yè)界通用的 API 來將模型部署到 TI 硬件上。然而,將深度學(xué)習(xí)模型部署到硬件加速器上只是難題的冰山一角。

為幫助您快速構(gòu)建高效的邊緣 AI 應(yīng)用,TI 采用了 GStreamer 框架。借助在主機(jī) Arm 內(nèi)核上運行的 GStreamer 插件,您可以自動將計算密集型任務(wù)的端到端信號鏈加速部署到硬件加速器和數(shù)字信號處理內(nèi)核上。

圖 3 展示了適用于邊緣 AI 的 Linux Processor SDK 的軟件棧和組件。

邊緣AI應(yīng)用的開發(fā)流程

圖 3:適用于邊緣 AI 的 Linux Processor SDK 組件

結(jié)語

如果您對本文中提及的工具感到陌生或有所擔(dān)憂,請放寬心,因為即使您想要開發(fā)和部署 AI 模型或構(gòu)建 AI 應(yīng)用,也不必成為 AI 專家。TI Edge AI Academy 能夠幫助您在自學(xué)、課堂環(huán)境中通過測驗學(xué)習(xí) AI 基礎(chǔ)知識,并深入了解 AI 系統(tǒng)和軟件編程。實驗室提供了構(gòu)建“Hello World” AI 應(yīng)用的分步代碼,而帶有攝像頭捕獲和顯示功能的端到端高級應(yīng)用使您能夠按照自己的節(jié)奏順利開發(fā) AI 應(yīng)用。

原文標(biāo)題:技術(shù)干貨|嵌入式邊緣 AI 應(yīng)用開發(fā)簡化指南

文章出處:【微信公眾號:德州儀器】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19286

    瀏覽量

    229854
  • 嵌入式
    +關(guān)注

    關(guān)注

    5082

    文章

    19126

    瀏覽量

    305250
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30896

    瀏覽量

    269110

原文標(biāo)題:技術(shù)干貨|嵌入式邊緣 AI 應(yīng)用開發(fā)簡化指南

文章出處:【微信號:tisemi,微信公眾號:德州儀器】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    算力強(qiáng)勁的AI邊緣計算盒子# 邊緣計算

    AI邊緣計算
    成都華江信息
    發(fā)布于 :2023年11月24日 16:31:06

    EdgeBoard FZ5 邊緣AI計算盒及計算卡

    科技攜手百度,推出系列高性能及高性價比EdgeBoard 邊緣AI計算卡/計算盒,助力AI項目落地。可靈活適配海量的且不斷迭代的AI模型,并提供強(qiáng)大的運行算力。
    發(fā)表于 08-31 14:12

    【HarmonyOS HiSpark AI Camera】邊緣計算安全監(jiān)控系統(tǒng)

    linux和mcu的開發(fā)工作經(jīng)驗,是韋東山老師的粉絲和線下視頻的學(xué)生,對AI和嵌入式視覺有很大的興趣,我所在公司也是做相關(guān)產(chǎn)品的,叫上AI組的同事協(xié)助AI相關(guān)任務(wù),做一款demo級的產(chǎn)
    發(fā)表于 09-25 10:11

    網(wǎng)絡(luò)邊緣實施AI的原因

    AI推向邊緣的影響通過在邊緣運行ML模型可以使哪些具體的AI項目更容易運行?
    發(fā)表于 02-23 06:21

    一文了解邊緣計算和邊緣AI 精選資料分享

    這個9月,AI芯片獨角獸地平線發(fā)布了自詡最強(qiáng)邊緣 AI 芯片地平線「旭日3」,一時間引起轟動。相比第二代芯片,「旭日3」的AI性能上得到很大提升,只需在 2.5W 的功耗下,能夠達(dá)到等
    發(fā)表于 07-23 06:10

    嵌入式邊緣AI應(yīng)用開發(fā)指南

    保駕護(hù)航。下面讓我們來了解如何不借助手動工具或手動編程來選擇模型、隨時隨地訓(xùn)練模型并將其無縫部署到TI處理器上,從而實現(xiàn)硬件加速推理。圖1: 邊緣AI應(yīng)用的開發(fā)流程第1步:選擇模型
    發(fā)表于 11-03 06:53

    嘉楠勘智K510開發(fā)板簡介——高精度AI邊緣推理芯片及應(yīng)用

    隨著人工智能應(yīng)用的不斷普及,各種行業(yè)應(yīng)用對于算力的需求不斷增加。從當(dāng)前提供AI加速運算的解決方案來看,在云端仍然以GPU方案為主,在終端領(lǐng)域,使用邊緣AI芯片的方案則變得越來越廣泛,成為行業(yè)共識
    發(fā)表于 11-22 15:52

    ST MCU邊緣AI開發(fā)者云 - STM32Cube.AI

    意法半導(dǎo)體(ST)為嵌入式AI開發(fā)人員和數(shù)據(jù)科學(xué)家擴(kuò)展了面向嵌入式AI開發(fā)人員和數(shù)據(jù)科學(xué)家的解決方案,推出了一套業(yè)界首創(chuàng)的全新工具和服務(wù),通過輔助硬件和軟件決策,將
    發(fā)表于 02-02 09:52

    索尼投資樹莓派,共同開發(fā)邊緣 AI 解決方案

    索尼半導(dǎo)體解決方案(SSS)今天發(fā)布新聞稿,宣布和樹莓派公司簽署戰(zhàn)略協(xié)作框架,持有后者的少數(shù)股權(quán),共同開發(fā)邊緣人工智能(Edge AI)解決方案。IT之家翻譯索尼新聞稿內(nèi)容如下:“公司通過這項戰(zhàn)略
    發(fā)表于 04-13 15:55

    嵌入式邊緣AI應(yīng)用開發(fā)簡化指南

    硬件加速推理。 圖1: 邊緣AI應(yīng)用的開發(fā)流程 第1步:選擇模型 邊緣AI系統(tǒng)
    的頭像 發(fā)表于 06-30 17:01 ?1018次閱讀
    嵌入式<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>應(yīng)用<b class='flag-5'>開發(fā)</b>簡化指南

    邊緣AI設(shè)計需要全面的開發(fā)工具

      網(wǎng)絡(luò)邊緣的高能效 AI 已經(jīng)到來,這使得邊緣 AI SoC 以及支持它們的綜合開發(fā)工具成為必備品,而不是例外。
    的頭像 發(fā)表于 07-11 10:51 ?903次閱讀

    嵌入式邊緣AI應(yīng)用開發(fā)簡化指南

    嵌入式邊緣AI應(yīng)用開發(fā)簡化指南
    發(fā)表于 10-28 11:59 ?0次下載
    嵌入式<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>應(yīng)用<b class='flag-5'>開發(fā)</b>簡化指南

    AI邊緣計算是什么意思?邊緣ai是什么?AI邊緣計算應(yīng)用

    AI邊緣計算是什么意思?邊緣ai是什么?AI邊緣計算應(yīng)用? 隨著人工智能技術(shù)的不斷發(fā)展,
    的頭像 發(fā)表于 08-24 15:18 ?2051次閱讀

    【2023電子工程師大會】ARM嵌入式AI邊緣計算開發(fā)流程要點p

    【2023電子工程師大會】ARM嵌入式AI邊緣計算開發(fā)流程要點ppt
    發(fā)表于 01-03 16:31 ?27次下載

    Arm推出GitHub平臺AI工具,簡化開發(fā)AI應(yīng)用開發(fā)部署流程

    專為 GitHub Copilot 設(shè)計的 Arm 擴(kuò)展程序,可加速從云到邊緣側(cè)基于 Arm 平臺的開發(fā)。 Arm 原生運行器為部署云原生、Windows on Arm 以及云到邊緣側(cè)的
    的頭像 發(fā)表于 10-31 18:51 ?2126次閱讀