數(shù)據(jù)處理當(dāng)然不是一個新概念,算法也不是。然而,算法被訓(xùn)練和運行的地方正在迅速發(fā)展。近年來,機(jī)器學(xué)習(xí)(ML)算法的訓(xùn)練基本上是在云環(huán)境中進(jìn)行的,因為能夠利用臨時計算資源來執(zhí)行這些數(shù)據(jù)密集型任務(wù)。
如今,人們大力推動盡可能靠近源頭處理數(shù)據(jù)。這是由于物聯(lián)網(wǎng)(IoT)和現(xiàn)在正在生成大量數(shù)據(jù)的各種技術(shù)的出現(xiàn)。所有這些數(shù)據(jù)都讓組織爭先恐后地以經(jīng)濟(jì)高效的方式充分利用它。組織需要考慮從原始源到處理位置的數(shù)據(jù)傳輸成本,以及存儲和處理數(shù)據(jù)的成本,這通常是在資源密集型服務(wù)器/云環(huán)境中。
人工智能 (AI) 技術(shù)開始出現(xiàn),可以在低計算功率設(shè)備(如基于 ESP32 和 Cortex M4 的微控制器單元 (MCU))上實現(xiàn) ML 模型訓(xùn)練和執(zhí)行,而不是更大的微處理器單元 (MPU)。這允許數(shù)據(jù)保持本地,并且僅在必要時在云中傳輸已處理的數(shù)據(jù)。
通過將訓(xùn)練和運行 ML 模型的總體占用空間要求降低到 100kb 以下,嵌入式計算中的 AI 正在進(jìn)入一個新的領(lǐng)域。例如,與合并排序算法相比,嵌入式算法工程師更歡迎氣泡排序算法,因為前者使用現(xiàn)有內(nèi)存。盡管已經(jīng)存在許多算法,但正在針對嵌入式環(huán)境開發(fā)和優(yōu)化新的基于AI的時間序列預(yù)測算法。通過這種新方法,AI/ML模型在嵌入式板上進(jìn)行訓(xùn)練。然后,這些模型用于在執(zhí)行期間執(zhí)行多變量統(tǒng)計推斷。
這些新的基于AI的時間序列預(yù)測算法有三個優(yōu)點:
該解決方案與網(wǎng)絡(luò)延遲無關(guān),因為計算是在本地板上進(jìn)行的,因此性能得到了提高。
原始數(shù)據(jù)的安全/隱私得到保證,因為原始信號/數(shù)據(jù)只出現(xiàn)在本地。
對于每個嵌入式板,都會訓(xùn)練一個新的 ML/AI 模型。這可能是這種方法的核心優(yōu)勢,因為在典型的工業(yè)案例中,由于環(huán)境變體、傳感器的缺陷和機(jī)器變體,不可能使用單個 ML/AI 模型來覆蓋機(jī)器特征集群。使用云服務(wù)器為每個嵌入式板訓(xùn)練模型也不是負(fù)擔(dān)得起的。
技術(shù)突破
算法在嵌入式計算中發(fā)揮著重要作用。通常,嵌入式設(shè)備執(zhí)行的算法任務(wù)包括傳感器數(shù)據(jù)清理/過濾、數(shù)據(jù)編碼/解碼和控制信號生成。由于內(nèi)存容量、CPU 功率和架構(gòu)不同,嵌入式計算環(huán)境中“最佳算法”的定義可能與 PC 和云服務(wù)器中“最佳算法”的定義大不相同。
在過去的幾年里,AI/ML算法取得了突破和非常迅速的進(jìn)步。許多努力都集中在將AI / ML模型(這些模型在其他地方訓(xùn)練)引入嵌入式上下文。換句話說,要成功部署 AI/ML 模型,需要優(yōu)化算法的內(nèi)存/CPU 使用率和功耗。
人工智能正在縮小,可以運行這些高級算法。技術(shù)進(jìn)步現(xiàn)在允許人工智能和預(yù)測性維護(hù)從基于 MPU 的設(shè)備轉(zhuǎn)向基于 MCU 的設(shè)備,占用空間小,價格顯著降低?;?MCU 的設(shè)備現(xiàn)在可以在網(wǎng)絡(luò)邊緣執(zhí)行以前僅在 MPU 上提供的任務(wù)(例如預(yù)測性維護(hù))。這一新功能使芯片制造商、原始設(shè)備制造商 (OEM) 和智能設(shè)備制造商能夠降低成本并提供差異化的產(chǎn)品。
審核編輯:郭婷
-
處理器
+關(guān)注
關(guān)注
68文章
19329瀏覽量
230134 -
mcu
+關(guān)注
關(guān)注
146文章
17172瀏覽量
351557 -
物聯(lián)網(wǎng)
+關(guān)注
關(guān)注
2909文章
44713瀏覽量
374258
發(fā)布評論請先 登錄
相關(guān)推薦
評論