0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣AI應(yīng)用越來(lái)越普遍,AI模型在邊緣端如何部署?

Carol Li ? 來(lái)源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2023-07-04 00:11 ? 次閱讀

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)在人工智能時(shí)代,越來(lái)越多的AI應(yīng)用需要從云端擴(kuò)展到邊緣端,比如智能耳機(jī)、智能攝像機(jī)、智能手環(huán)、物流機(jī)器人等,在邊緣端部署AI已經(jīng)成為趨勢(shì)。如今AI大模型迅猛發(fā)展,AI大模型在端側(cè)的部署也成了業(yè)界關(guān)注的焦點(diǎn)。

如何把AI模型在邊緣端部署

首先得軟硬件適配,硬件方面,適配的AI芯片越多越好,這樣對(duì)于工程師來(lái)說(shuō),就降低了端側(cè)模型適配遷移的難度,即使換一個(gè)設(shè)備也可以輕松部署上去;軟件方面,主要的操作系統(tǒng)需要做適配,包括Linux、Windows、Android 、iOS等,這樣無(wú)論是手機(jī)、PC都可以部署。還有框架適配,也是越全越好,比如PaddlePaddle、TensorFlow、PyTorch、Caffe、MXNet等。

其次是需要對(duì)模型進(jìn)行壓縮,在保證高精度的同時(shí),最好也能夠讓模型跑得更快更省內(nèi)存,這里需要采用模型壓縮技術(shù),比如模型量化、剪枝和蒸餾技術(shù)。尤其是如今AI大模型迅猛發(fā)展,未來(lái)大模型在端側(cè)的部署也少不了要用到壓縮技術(shù)。

可以說(shuō),模型壓縮技術(shù)是實(shí)現(xiàn)AI大模型在邊/端部署的核心技術(shù)。模型壓縮技術(shù)可在保有大模型原有性能和精度基本不變前提下降低對(duì)推理算力的需求。

具體來(lái)看,量化,即將浮點(diǎn)計(jì)算轉(zhuǎn)成低比特定點(diǎn)計(jì)算;網(wǎng)絡(luò)剪枝,即去除神經(jīng)網(wǎng)絡(luò)中冗余的通道、神經(jīng)元節(jié)點(diǎn)等;知識(shí)蒸餾,即將大模型作為教師模型,用其輸出訓(xùn)練性能接近、結(jié)構(gòu)更簡(jiǎn)的模型。

以清華大學(xué)唐杰教授團(tuán)隊(duì)2022年8月發(fā)布的1300億參數(shù)模型 GLM-130B 為例,原模型支持在一臺(tái) A100 40G*8或 V100 32G*8 服務(wù)器上進(jìn)行推理,而將模型量化至 INT 4精度后,相較INT 8精度其所需 GPU 內(nèi)存降低50%,且可在一臺(tái)4×RTX 3090(24G)或 8×RTX 2080Ti (11G )服務(wù)器上進(jìn)行推理。

眾多廠商實(shí)現(xiàn)AI大模型的端側(cè)部署

谷歌、高通、華為等廠商已經(jīng)實(shí)現(xiàn)AI大模型在端側(cè)的部署。今年5月份,在Google/O開(kāi)發(fā)者大會(huì)上,Google宣布了一個(gè)專門針對(duì)移動(dòng)設(shè)備優(yōu)化系統(tǒng)的TensorFlow新版本TensorFlowLite。這款被稱為TensorFlowLite的軟件庫(kù),是可在移動(dòng)設(shè)備上運(yùn)行的深度學(xué)習(xí)工具,它允許開(kāi)發(fā)人員在用戶的移動(dòng)設(shè)備上實(shí)時(shí)地運(yùn)行人工智能應(yīng)用。

該軟件庫(kù)在設(shè)計(jì)上追求高速度和小儲(chǔ)存,支持iOS和Android系統(tǒng)。如果開(kāi)發(fā)者使用其他系統(tǒng),也可以經(jīng)過(guò)一系列復(fù)雜而冗長(zhǎng)的編譯流程,將TensorFlow編譯成移動(dòng)操作系統(tǒng)所支持的軟件庫(kù),這樣并不會(huì)改變TensorFlow的功能。

TensorFlowLite還提供了有限的預(yù)訓(xùn)練人工智能模型,包括MobileNet和InceptionV3物體識(shí)別計(jì)算機(jī)模型,以及SmartReplay自然語(yǔ)言處理模型。開(kāi)發(fā)者用自己的數(shù)據(jù)集做的定制模型也可以部署在上面。TensorFlowLite使用Android神經(jīng)網(wǎng)絡(luò)應(yīng)用程序界面(API),可以在沒(méi)有加速硬件時(shí)直接調(diào)用CPU來(lái)處理,確保其可以兼容不同設(shè)備。

高通技術(shù)公司產(chǎn)品管理高級(jí)副總裁兼AI負(fù)責(zé)人Ziad Asghar此前表示,隨著生成式AI的飛速普及,混合處理的重要性空前突顯?;旌咸幚鞟I的重要性空前突顯,正如傳統(tǒng)計(jì)算從大型主機(jī)和瘦客戶端演變?yōu)楫?dāng)前云端和邊緣終端相結(jié)合的模式,AI處理必須在云端和終端混合進(jìn)行才能發(fā)揮其最大潛能。

根據(jù)高通的演示,將手機(jī)設(shè)置成“飛行模式”,再通過(guò)手機(jī)端全棧AI優(yōu)化,這一模型能夠完全在終端側(cè)運(yùn)行,實(shí)現(xiàn)在15秒內(nèi)完成20步推理,生成飽含細(xì)節(jié)的圖像。很重要的是,即便在飛行模式下,這些AI能力都可以得到實(shí)現(xiàn),例如將Stable Diffusion的能力集成到相機(jī)應(yīng)用中之后,用戶在任何一個(gè)地點(diǎn)拍攝照片,再要求AI將照片背景改為夕陽(yáng)之下的萬(wàn)里長(zhǎng)城。

Ziad Asghar透露,如果在云端運(yùn)行一個(gè)超過(guò)10億參數(shù)的生成式AI模型,可能需要數(shù)百瓦的功耗,而在終端側(cè)運(yùn)行需要的功耗僅有幾毫瓦。這賦予了高通在生成式AI領(lǐng)域的獨(dú)特優(yōu)勢(shì)。不久的將來(lái),擁有 100 億或更高參數(shù)的模型將能夠在終端上運(yùn)行。

在今年3月春季旗艦新品發(fā)布會(huì)上,華為帶來(lái)全新智慧搜圖功能,基于多模態(tài)大模型技術(shù),在手機(jī)端側(cè)對(duì)模型進(jìn)行小型化處理,在業(yè)界率先實(shí)現(xiàn)了首創(chuàng)的、精準(zhǔn)的自然語(yǔ)言手機(jī)圖庫(kù)搜索體驗(yàn)。用戶可以像與人對(duì)話一樣,通過(guò)語(yǔ)音喚醒小藝,使用自然語(yǔ)言在手機(jī)圖庫(kù)中搜索出匹配如 “山頂看日出”、“圍爐煮茶”、“藍(lán)色珊瑚中的小丑魚”等描述的照片。

相較于傳統(tǒng)圖庫(kù)使用標(biāo)簽進(jìn)行照片搜索,存在準(zhǔn)確率低、響應(yīng)速度慢等問(wèn)題,智慧搜圖更加“聰明”。結(jié)合多模態(tài)大模型技術(shù),智慧搜圖對(duì)億級(jí)的圖文數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,增加了對(duì)泛化通用語(yǔ)義的理解,支持包含顏色、形狀、物體、行為、時(shí)間和地點(diǎn)等多信息組合的自然語(yǔ)言搜索,同時(shí)還實(shí)現(xiàn)了端側(cè)輕量化應(yīng)用。

小結(jié)

由于AI在邊緣或者端側(cè)的部署具有諸多優(yōu)勢(shì),近年來(lái)AI在邊緣側(cè)的應(yīng)用滲透率也越來(lái)越高。AI大模型迅猛發(fā)展,未來(lái)在終端的部署也是必然趨勢(shì),眾多廠商已經(jīng)對(duì)此進(jìn)行探索,并有所突破,期待AI大模型未來(lái)能夠是實(shí)實(shí)在在賦能各行各業(yè)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30891

    瀏覽量

    269083
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    企業(yè)AI模型部署攻略

    當(dāng)下,越來(lái)越多的企業(yè)開(kāi)始探索和實(shí)施AI模型,以提升業(yè)務(wù)效率和競(jìng)爭(zhēng)力。然而,AI模型部署并非易事
    的頭像 發(fā)表于 12-23 10:31 ?104次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    以及邊緣計(jì)算能力的增強(qiáng),越來(lái)越多的目標(biāo)檢測(cè)應(yīng)用開(kāi)始直接在靠近數(shù)據(jù)源的邊緣設(shè)備上運(yùn)行。這不僅減少了數(shù)據(jù)傳輸延遲,保護(hù)了用戶隱私,同時(shí)也減輕了云端服務(wù)器的壓力。然而,
    發(fā)表于 12-19 14:33

    AI模型部署邊緣設(shè)備的奇妙之旅:如何在邊緣部署OpenCV

    的算法和模型來(lái)解析圖像的意義。 實(shí)際應(yīng)用中,這兩者往往是緊密結(jié)合的,共同作用于解決復(fù)雜的問(wèn)題。例如,一個(gè)自動(dòng)駕駛系統(tǒng)中,圖像處理可能會(huì)用于清理傳感器輸入的數(shù)據(jù),而計(jì)算機(jī)視覺(jué)則負(fù)責(zé)識(shí)別道路上的行人
    發(fā)表于 12-14 09:31

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實(shí)現(xiàn)手寫數(shù)字識(shí)別

    系統(tǒng)的智能化水平,還極大地拓展了其應(yīng)用范圍, 使得嵌入式系統(tǒng)智能家居、智能交通、智能醫(yī)療等領(lǐng)域有了更深層次的運(yùn)用。AI技術(shù)的嵌入,已經(jīng)成為未來(lái)嵌入式系統(tǒng)發(fā)展 的一個(gè)重要趨勢(shì)。踏入邊緣
    發(fā)表于 12-06 17:20

    研華科技打造整體邊緣AI服務(wù)器解決方案

    近年來(lái),AIoT數(shù)據(jù)量快速成長(zhǎng)、硬件效能提升、綠色低碳意識(shí)抬頭等趨勢(shì)影響下,邊緣AI應(yīng)用的系統(tǒng)架構(gòu)也出現(xiàn)改變。隨著越來(lái)越多企業(yè)將AI
    的頭像 發(fā)表于 11-18 15:35 ?230次閱讀

    什么是邊緣AI邊緣AI的供電挑戰(zhàn)

    RECOM 的 RACM1200-V 采用數(shù)字通信,可輕松集成到邊緣 AI設(shè)計(jì)中。
    的頭像 發(fā)表于 09-02 11:52 ?480次閱讀
    什么是<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>?<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>的供電挑戰(zhàn)

    ai邊緣盒子有哪些用途?ai視頻分析邊緣計(jì)算盒子詳解

    近年來(lái),隨著人工智能和邊緣計(jì)算的發(fā)展,一種名為AI邊緣盒子的新型設(shè)備正逐漸引起廣泛關(guān)注。作為一種集成了邊緣計(jì)算和AI算法處理能力的設(shè)備,
    的頭像 發(fā)表于 05-29 14:24 ?982次閱讀
    <b class='flag-5'>ai</b><b class='flag-5'>邊緣</b>盒子有哪些用途?<b class='flag-5'>ai</b>視頻分析<b class='flag-5'>邊緣</b>計(jì)算盒子詳解

    支持大模型部署和運(yùn)行的邊緣計(jì)算SoC芯片

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)如今,AI邊緣側(cè)的應(yīng)用越來(lái)越廣泛,這其中少不了AI SoC芯片的支持,
    的頭像 發(fā)表于 05-27 08:00 ?3433次閱讀

    主流邊緣AI算法,安防、零售、交通等領(lǐng)域的應(yīng)用

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)邊緣AI,是邊緣設(shè)備部署AI算法,其計(jì)算發(fā)生在靠近用戶和數(shù)據(jù)的網(wǎng)
    的頭像 發(fā)表于 05-13 01:56 ?2986次閱讀

    部署邊緣設(shè)備上的輕量級(jí)模型

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)邊緣AI算法是一種將人工智能(AI)算法和計(jì)算能力放置接近數(shù)據(jù)源的終端設(shè)備中的策略。這種算法通常被部署
    的頭像 發(fā)表于 05-11 00:17 ?2608次閱讀

    NVIDIA與恩智浦聯(lián)手,邊緣設(shè)備上部署AI模型

    恩智浦工業(yè)及IoT邊緣高級(jí)副總裁Charles Dachs表示,人工智能的創(chuàng)新將塑造智能互聯(lián)世界的未來(lái),融入Nvidia先進(jìn)的AI培訓(xùn)技術(shù)以及恩智浦工業(yè)及物聯(lián)網(wǎng)邊緣科研實(shí)力,將產(chǎn)生協(xié)
    的頭像 發(fā)表于 03-25 16:05 ?885次閱讀

    英特爾發(fā)布全新邊緣計(jì)算平臺(tái),解決AI邊緣落地難題

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)AI越來(lái)越多地邊緣側(cè)部署。Gartner最新預(yù)測(cè)數(shù)據(jù)顯示,到2025年,50%以上的企業(yè)管理數(shù)據(jù)將在數(shù)據(jù)中心
    的頭像 發(fā)表于 03-12 09:06 ?4350次閱讀
    英特爾發(fā)布全新<b class='flag-5'>邊緣</b>計(jì)算平臺(tái),解決<b class='flag-5'>AI</b><b class='flag-5'>邊緣</b>落地難題

    Supermicro全新系統(tǒng)產(chǎn)品組合將前沿AI性能推向邊緣計(jì)算環(huán)境

    模型(Pre-trained Model)及將AI推論解決方案部署產(chǎn)生數(shù)據(jù)的邊緣,進(jìn)而縮短響
    的頭像 發(fā)表于 02-24 09:10 ?996次閱讀
    Supermicro全新系統(tǒng)產(chǎn)品組合將前沿<b class='flag-5'>AI</b>性能推向<b class='flag-5'>邊緣</b>計(jì)算環(huán)境

    AI邊緣計(jì)算機(jī)應(yīng)用場(chǎng)景廣泛!大語(yǔ)言模型與數(shù)字人結(jié)合方案邊緣側(cè)落地

    。 ? 當(dāng)下,AI邊緣側(cè)的部署正在成為趨勢(shì),包括近年來(lái)備受矚目的大語(yǔ)言模型
    的頭像 發(fā)表于 01-16 01:11 ?4441次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>邊緣</b>計(jì)算機(jī)應(yīng)用場(chǎng)景廣泛!大語(yǔ)言<b class='flag-5'>模型</b>與數(shù)字人結(jié)合方案<b class='flag-5'>在</b><b class='flag-5'>邊緣</b>側(cè)落地

    邊緣側(cè)部署模型優(yōu)勢(shì)多!模型量化解決邊緣設(shè)備資源限制問(wèn)題

    設(shè)備上,可以減少數(shù)據(jù)傳輸?shù)难舆t和帶寬需求,提高模型的實(shí)時(shí)性和響應(yīng)速度。 ? 邊緣部署模型的優(yōu)勢(shì) ?
    的頭像 發(fā)表于 01-05 00:06 ?3556次閱讀