0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

將可能變?yōu)楝F(xiàn)實:利用Arm技術(shù)實現(xiàn)邊緣AI和ML

Arm社區(qū) ? 來源:Arm ? 2024-04-26 10:47 ? 次閱讀

作者:Arm 高級副總裁兼物聯(lián)網(wǎng)事業(yè)部總經(jīng)理 Paul Williamson

談到人工智能 (AI) 和機器學(xué)習(xí) (ML) 時,您會聯(lián)想到拖拉機嗎?答案應(yīng)該是不會,但是《經(jīng)濟學(xué)人》[1]中的這個類比或許能為您帶來些啟發(fā)。

雖然拖拉機在二十世紀(jì)初一經(jīng)問世就引起轟動,但農(nóng)場主們對于新技術(shù)的接受速度是非常緩慢的。到 1940 年,僅有 23% 的美國農(nóng)場采用了拖拉機。為何普及速度如此緩慢?主要原因是拖拉機功能有限、可靠性較差、維護困難,以及價格過于昂貴。但即使如此,大多數(shù)農(nóng)場主心里也明白,一旦這些問題得到解決,且當(dāng)這個產(chǎn)品更具經(jīng)濟吸引力,將帶來巨大的變革。

當(dāng)今技術(shù)的普及速度遠(yuǎn)遠(yuǎn)超過二十世紀(jì)的農(nóng)業(yè)領(lǐng)域,但從拖拉機發(fā)展歷程中得出的經(jīng)驗,對于 AI 和 ML 在邊緣領(lǐng)域的早期應(yīng)用依然具有重要借鑒意義。換言之,對 AI 系統(tǒng)的競相投資不能只停留在對美好未來的憧憬上,而要重視切實可行的實施計劃。正如二十世紀(jì) 40 年代,從一開始農(nóng)民看到拖拉機時的驚奇,轉(zhuǎn)向切實地提高農(nóng)業(yè)效率,實現(xiàn)農(nóng)業(yè)多樣化和集約化,以及為拖拉機開發(fā)更多專用附件和服務(wù)。

然而,要在邊緣側(cè)實現(xiàn) AI 和 ML 的規(guī)?;瘧?yīng)用,目前仍需克服重重挑戰(zhàn)。

碎片化格局

市場上針對不同應(yīng)用和場景的硬件類型五花八門,這構(gòu)成了在邊緣側(cè)部署 AI 和 ML 的一大挑戰(zhàn)。通常,豐富多樣的硬件選擇會導(dǎo)致開發(fā)者必須為特定硬件定制模型和代碼,這無疑會增加開發(fā)過程的復(fù)雜性和管理成本。

現(xiàn)實情況是,與移動設(shè)備和高性能物聯(lián)網(wǎng)類似,大多數(shù) ML 模型都是在 CPU 上運行。而物聯(lián)網(wǎng)又廣泛構(gòu)建于 Arm 架構(gòu)之上。2020 年,Arm 推出了 Helium 技術(shù),它是 Arm Cortex-M 指令集的矢量擴展,支持在超低功耗設(shè)備上實現(xiàn) ML 加速。引入 Helium 的 Cortex-M 能夠幫助開發(fā)者將 ML 應(yīng)用的性能提升多達(dá) 15 倍,并將其能效提高至少五倍。目前已有超過 35 家合作伙伴推出了采用 Helium 技術(shù)的設(shè)備,其中包括恩智浦半導(dǎo)體、瑞薩電子、Ambiq 和 Alif Semiconductor。

Arm Ethos NPU 系列產(chǎn)品旨在為邊緣 ML 工作負(fù)載提供更優(yōu)異的性能和能效表現(xiàn),為您的性能提升之路保駕護航。Ethos NPU 兼具可擴展性和可配置性,能夠針對不同應(yīng)用提供不同級別的性能和功耗,適用于計算機視覺、自然語言處理、語音識別推薦系統(tǒng)等多種應(yīng)用場景。Ethos NPU 可以與任何基于 Arm 技術(shù)的 SoC 集成,為從智能音箱到安全攝像頭等各種設(shè)備提供無縫的 ML 加速解決方案。

AI 模型生命周期

另一挑戰(zhàn)是 AI 模型的生命周期,其中包括訓(xùn)練、調(diào)整和部署等環(huán)節(jié)。為了在邊緣部署 AI 模型,開發(fā)者需要考慮如何針對特定硬件優(yōu)化模型。這涉及選擇正確的模型架構(gòu)、數(shù)據(jù)格式、量化方案和推理引擎,以便使其能夠在嵌入式設(shè)備上高效運行。此外,開發(fā)者需要選擇能夠充分利用設(shè)備硬件功能(如 Ethos NPU 或 Helium 技術(shù))的推理引擎,以加速模型的執(zhí)行。

Arm 能夠讓開發(fā)者輕松地在嵌入式設(shè)備上使用 PyTorch 和 ExecuTorch 等主流 ML 框架。例如,Arm Keil MDK 是可用于簡化嵌入式應(yīng)用程序開發(fā)和調(diào)試的集成開發(fā)環(huán)境 (IDE),能支持 CMSIS 工具包,而后者為設(shè)備能力和 ML 模型提供了通用的抽象層。借助經(jīng)簡化的開發(fā)流程,開發(fā)者僅需單一工具鏈和經(jīng)驗證的單一架構(gòu)便可以實現(xiàn) AI 功能。迄今,基于 Cortex-M 的設(shè)備出貨量已超過 1000 億臺,在全球范圍內(nèi)擁有 100 多家 ML 生態(tài)系統(tǒng)合作伙伴。

利用 Arm 解決方案,開發(fā)者可以減少嵌入式設(shè)備中 ML 應(yīng)用開發(fā)所需的時間和成本,同時獲得更優(yōu)越的性能和能效表現(xiàn)。

使用嵌入式設(shè)備

嵌入式開發(fā)面臨的主要挑戰(zhàn)之一在于,需要在資源受限的設(shè)備上優(yōu)化 ML 應(yīng)用的性能和效率。不同于基于云端的解決方案,可利用服務(wù)器強大的計算和存儲能力,嵌入式設(shè)備通常必須在嚴(yán)苛的功耗和延遲性約束之下,在本地運行 ML 模型。為了實現(xiàn)所需的 ML 性能,開發(fā)者通常不得不在初代產(chǎn)品的價格或功耗上做出妥協(xié)。

而 Arm 虛擬硬件的推出帶來了一種創(chuàng)新思路,它是一款基于 Arm 架構(gòu)的云端模擬解決方案,使開發(fā)者可以在不依賴物理硬件的情況下開發(fā)和測試 ML 應(yīng)用。該解決方案可與 AWS SageMaker 和 Google Cloud AI Platform 等 MLOps 解決方案無縫集成,有效簡化了 ML 模型在各種設(shè)備上的部署和管理。這些平臺提供的工具和服務(wù)支持自動執(zhí)行 ML 生命周期的每一個階段,涵蓋了從數(shù)據(jù)管理和模型訓(xùn)練到部署和監(jiān)控等環(huán)節(jié)。通過將 Arm 虛擬硬件與 MLOps 解決方案相結(jié)合,開發(fā)者可以更快地將嵌入式 ML 應(yīng)用推向市場、降低成本并增強其可擴展性。

部署和保護知識產(chǎn)權(quán)

在數(shù)以百萬計的端側(cè)設(shè)備中部署和保護寶貴的知識產(chǎn)權(quán),也是一項重大挑戰(zhàn)。ML 模型本質(zhì)上是數(shù)學(xué)函數(shù),任何有權(quán)訪問設(shè)備或數(shù)據(jù)流的人都可以提取和復(fù)制它。因此,設(shè)備和數(shù)據(jù)可能會被篡改、操控或惡意攻擊,從而導(dǎo)致其功能和可靠性受到損害。開發(fā)者必須確保其 ML 模型受到保護,不會輕易被逆向工程破解。

Arm 致力于幫助開發(fā)者在邊緣設(shè)備上部署 ML 模型并保障其安全,方法之一便是在 PSA Certified 提供的框架內(nèi)操作。PSA Certified 是平臺安全架構(gòu) (PSA) 的縮寫,是 Arm 與合作伙伴為幫助保護物聯(lián)網(wǎng)設(shè)備而制定的最佳實踐和規(guī)范。經(jīng) PSA Certified 認(rèn)證,用戶可以驗證和信任物聯(lián)網(wǎng)產(chǎn)品的安全性,并確保其符合相關(guān)法規(guī)和標(biāo)準(zhǔn)的要求。

嵌入式邊緣 AI

AI 和 ML 正在重新塑造嵌入式系統(tǒng)的發(fā)展面貌。

去年,我們與合作伙伴共同探討了應(yīng)對嵌入式開發(fā)中一些常見挑戰(zhàn)的各種方法,例如:類似 Arm 虛擬硬件等的開發(fā)解決方案、新行業(yè)標(biāo)準(zhǔn),或通過采用 Arm 架構(gòu)以實現(xiàn)靈活性、高效率并最大限度地降低安全風(fēng)險。

今年,我們將直面 AI 和 ML 在邊緣領(lǐng)域飛速創(chuàng)新的成果,并切身感受這些變化給 Arm 開發(fā)者生態(tài)系統(tǒng)帶來的影響。物聯(lián)網(wǎng)邊緣互聯(lián)設(shè)備日漸增多,數(shù)據(jù)量呈指數(shù)級增長,這為 AI 算法處理數(shù)據(jù)并實時提供洞察帶來了大量機遇。盡管生成式 AI 和大語言模型 (LLM) 備受矚目,但部署到邊緣物聯(lián)網(wǎng)設(shè)備(如:樹莓派)上的較小模型也開始嶄露頭角。Transformer 架構(gòu)模型正在邊緣側(cè)掀起波瀾,因其固有的出色靈活性,使其與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò) (CNN) 區(qū)別開來。

變革的步伐之快令人驚嘆。Arm 非常高興能夠在支持高性能物聯(lián)網(wǎng)設(shè)備和系統(tǒng)實現(xiàn) AI 方面發(fā)揮關(guān)鍵作用。Arm 的愿景是提供安全的智能設(shè)備和系統(tǒng),進而推動創(chuàng)新并改善人們的生活。通過以下舉措,Arm 持續(xù)致力于幫助開發(fā)者應(yīng)對挑戰(zhàn):

通過優(yōu)化高性能物聯(lián)網(wǎng)中部署 AI 的硬件和軟件,以實現(xiàn)性能、功耗、成本效益、安全性與可擴展性的優(yōu)異平衡。

簡便易用的工具和平臺,讓高性能物聯(lián)網(wǎng)中的 AI 開發(fā)和部署變得更加容易,讓更多具有不同知識背景的開發(fā)者和系統(tǒng)搭建者都能根據(jù)自身需求構(gòu)建和定制解決方案。

強大的生態(tài)系統(tǒng)支持和戰(zhàn)略合作伙伴關(guān)系,加速推動了在高性能物聯(lián)網(wǎng)中 AI 的普及并最大限度的發(fā)揮其效用,鼓勵各利益相關(guān)方和行業(yè)之間開展合作與共創(chuàng)。

這些是 Arm 實現(xiàn)物聯(lián)網(wǎng)邊緣 AI 愿景的重要支柱。我們堅信,就像拖拉機曾經(jīng)大幅改變了農(nóng)業(yè)和食物供應(yīng)鏈一樣,邊緣 AI 也將轉(zhuǎn)變我們與物理世界的互動方式,開啟人類創(chuàng)新創(chuàng)造的嶄新篇章。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ARM
    ARM
    +關(guān)注

    關(guān)注

    134

    文章

    9121

    瀏覽量

    368230
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31262

    瀏覽量

    269617
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    149

    瀏覽量

    34678
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8428

    瀏覽量

    132832
  • 邊緣AI
    +關(guān)注

    關(guān)注

    0

    文章

    98

    瀏覽量

    5041

原文標(biāo)題:將可能變?yōu)楝F(xiàn)實:利用 Arm 技術(shù)實現(xiàn)邊緣 AI 和 ML

文章出處:【微信號:Arm社區(qū),微信公眾號:Arm社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    利用TinyML在MCU上實現(xiàn)AI/ML推論工作

    眾所皆知,MCU運算力有限(相對于IoT網(wǎng)關(guān)、手機、計算機),而AI/ML向來耗用運算力,如此TinyML的技術(shù)主張豈不矛盾?事實上,MCU的運算力也非如刻板印象中那樣一直不堪,MCU運算力也在提升,如此可用來執(zhí)行簡單(相對于云
    發(fā)表于 09-20 11:10 ?2214次閱讀

    揭秘:AI 的神話與現(xiàn)實

    ,甚至導(dǎo)致危險的決策。這一現(xiàn)實使企業(yè)領(lǐng)導(dǎo)者感到困惑,阻礙了他們以適當(dāng)方式采用先進的AI技術(shù)。目前,不少企業(yè)選擇少量采用ML算法以快速獲得收益,但是這
    發(fā)表于 05-06 16:46

    硬件幫助將AI移動到邊緣

    雖然人工智能和機器學(xué)習(xí)計算通常在數(shù)據(jù)中心中大規(guī)模地執(zhí)行,但是最新的處理設(shè)備使得能夠?qū)?b class='flag-5'>AI / ML能力嵌入到網(wǎng)絡(luò)邊緣的IoT設(shè)備中。邊緣AI
    發(fā)表于 05-29 10:38

    EdgeBoard FZ5 邊緣AI計算盒及計算卡

    ` 隨著應(yīng)用場景的多樣化,利用人工智能技術(shù)邊緣側(cè)部署一系列創(chuàng)新應(yīng)用解決方案,對企業(yè)傳統(tǒng)的業(yè)務(wù)形態(tài)進行升級,加速業(yè)務(wù)增長,增強競爭優(yōu)勢,起著至關(guān)重要的作用。 在市場需求和產(chǎn)業(yè)趨勢的推動下,米爾
    發(fā)表于 08-31 14:12

    【HarmonyOS HiSpark AI Camera】邊緣計算安全監(jiān)控系統(tǒng)

    項目名稱:邊緣計算安全監(jiān)控系統(tǒng)試用計劃:理由:本人熱愛嵌入式技術(shù),希望通過嵌入式智能技術(shù)改善人們生活。希望基于鴻蒙系和linux統(tǒng)構(gòu)建一個邊緣計算的智能監(jiān)控平臺,來保證工廠運行的安全。
    發(fā)表于 09-25 10:11

    網(wǎng)絡(luò)邊緣實施AI的原因

    AI推向邊緣的影響通過在邊緣運行ML模型可以使哪些具體的AI項目更容易運行?
    發(fā)表于 02-23 06:21

    ST MCU邊緣AI開發(fā)者云 - STM32Cube.AI

    意法半導(dǎo)體(ST)為嵌入式AI開發(fā)人員和數(shù)據(jù)科學(xué)家擴展了面向嵌入式AI開發(fā)人員和數(shù)據(jù)科學(xué)家的解決方案,推出了一套業(yè)界首創(chuàng)的全新工具和服務(wù),通過輔助硬件和軟件決策,將邊緣AI
    發(fā)表于 02-02 09:52

    FPGA如何在PC中實現(xiàn)AIML

    (人工智能)和ML(機器學(xué)習(xí))的日益普及開辟了一個充滿可能性的新世界,PC廠商和生態(tài)系統(tǒng)巨頭都在尋求將這些先進的新功能添加到其產(chǎn)品功能集中。 在本篇博文中,萊迪思將討論PC中AI/ML
    的頭像 發(fā)表于 09-08 17:19 ?1214次閱讀

    ML-EXray:云到邊緣部署驗證框架

      嵌入式AIML邊緣的部署不斷增加,無疑引入了從云到邊緣的新性能變化。盡管邊緣設(shè)備上的
    的頭像 發(fā)表于 10-18 14:31 ?773次閱讀

    選擇邊緣ML應(yīng)用程序硬件的注意事項

    隨著邊緣機器學(xué)習(xí) (ML) 應(yīng)用的不斷發(fā)展,EE 需要了解邊緣ML,尤其是在處理和處理硬件方面。 隨著邊緣的日益擴散 機器學(xué)習(xí)
    的頭像 發(fā)表于 01-27 16:18 ?1476次閱讀
    選擇<b class='flag-5'>邊緣</b><b class='flag-5'>ML</b>應(yīng)用程序硬件的注意事項

    ML模型推向邊緣實現(xiàn)AI的新用例

    如前文所討論的那樣,ML模型通常依賴于大量的并行運算。本質(zhì)上講,它們需要原始的計算能力。但是,在算力和設(shè)備消耗的實際功率之間始終要進行權(quán)衡與取舍。要將ML模型推向邊緣,需要消耗功率盡可能
    的頭像 發(fā)表于 05-09 09:51 ?855次閱讀

    利用擴展型 NAS 存儲加速 AI/ML 工作負(fù)載

    更加便捷和智能化。在醫(yī)療領(lǐng)域,AIML的運用大大提升了診斷的準(zhǔn)確性和效率,為患者提供更好的治療方案。此外,在交通、金融、教育等各行各業(yè),AIML
    的頭像 發(fā)表于 08-05 08:11 ?672次閱讀
    <b class='flag-5'>利用</b>擴展型 NAS 存儲加速 <b class='flag-5'>AI</b>/<b class='flag-5'>ML</b> 工作負(fù)載

    AI邊緣計算是什么意思?邊緣ai是什么?AI邊緣計算應(yīng)用

    AI邊緣計算是什么意思?邊緣ai是什么?AI邊緣計算應(yīng)用? 隨著人工智能
    的頭像 發(fā)表于 08-24 15:18 ?2095次閱讀

    Arm與ExecuTorch合作加速端側(cè)生成式AI實現(xiàn)

    Arm 正在與 Meta 公司的 PyTorch 團隊攜手合作,共同推進新的 ExecuTorch 測試版 (Beta) 上線,旨在為全球數(shù)十億邊緣側(cè)設(shè)備和數(shù)百萬開發(fā)者提供人工智能 (AI) 和機器學(xué)習(xí) (
    的頭像 發(fā)表于 11-15 11:30 ?354次閱讀

    利用Arm Kleidi技術(shù)實現(xiàn)PyTorch優(yōu)化

    PyTorch 是一個廣泛應(yīng)用的開源機器學(xué)習(xí) (ML) 庫。近年來,Arm 與合作伙伴通力協(xié)作,持續(xù)改進 PyTorch 的推理性能。本文將詳細(xì)介紹如何利用 Arm Kleidi
    的頭像 發(fā)表于 12-23 09:19 ?226次閱讀
    <b class='flag-5'>利用</b><b class='flag-5'>Arm</b> Kleidi<b class='flag-5'>技術(shù)</b><b class='flag-5'>實現(xiàn)</b>PyTorch優(yōu)化