0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

面向低功耗AI芯片上的神經(jīng)網(wǎng)絡(luò)設(shè)計介紹

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-14 23:40 ? 次閱讀

首發(fā):GiantPandaCV
作者:ybai62868

【GiantPandaCV導(dǎo)語】

這篇文章為大家介紹了一下面向低功耗AI芯片上的神經(jīng)網(wǎng)絡(luò)設(shè)計,隨著這幾年神經(jīng)網(wǎng)絡(luò)和硬件(CPU,GPU,FPGA,ASIC)的迅猛發(fā)展,深度學(xué)習(xí)在包括互聯(lián)網(wǎng),自動駕駛,金融,安防等很多行業(yè)都得到了廣泛的應(yīng)用。然而當(dāng)我們真正在實際部署深度學(xué)習(xí)應(yīng)用的時候,許多場景例如無人駕駛對設(shè)備在功耗,成本,散熱性等方面都有額外的限制,導(dǎo)致了無法大規(guī)模應(yīng)用深度學(xué)習(xí)解決方案。感興趣的同學(xué)可以了解一下有關(guān)如何面向AI芯片來設(shè)計神經(jīng)網(wǎng)絡(luò)。

一、目前算法和硬件co-design的一個大背景

從硬件方面來看,我們都知道,深度神經(jīng)網(wǎng)絡(luò)中的計算都是大量的稠密型運算。那么,當(dāng)前的硬件發(fā)展其實已經(jīng)很難滿足這些稠密型的運算需求了。那么,設(shè)計低功耗,低成本,高性能的硬件計算部署平臺就成為了當(dāng)務(wù)之急。

對于算法來說,其實在某些公開的數(shù)據(jù)集上,已經(jīng)有很多非常不錯的算法了,但是這些算法僅僅是針對特定數(shù)據(jù)集(瘋狂刷點...)而在真實的業(yè)務(wù)場景下,這些算法有時候就并不一定能表現(xiàn)的非常出色。這個時候,我們就要去設(shè)計那些不僅是針對一些public數(shù)據(jù)集能夠表現(xiàn)的比較comparable的,同時在一些特定的業(yè)務(wù)場景下,也要能夠表現(xiàn)令人滿意的算法。

二、當(dāng)前AI芯片的發(fā)展?fàn)顩r

總的來說,目前的硬件家族可以被分為兩個大類。

一大類是以通用需求為主的:CPU, GPU

另一大類以特殊用途為主的:FPGA, ASIC

先有一個大體的宏觀概念。然后在看看看算法和這些硬件是怎么結(jié)合的。

早期的代碼都是跑在CPU上的,比如說,我們知道的LeNet,那會GPU并不像現(xiàn)在這么盛行。直到ImageNet的冠軍Alex把網(wǎng)絡(luò)跑到了GPU上。這個時候,大家都開始使用GPU作為自己的訓(xùn)練平臺。其實,CPU并不能非常高效的去運行我們需要的神經(jīng)網(wǎng)絡(luò)。因為CPU的運行方式是以串行為主,并且CPU上有很多操作都是為了優(yōu)化多級緩存,更加偏向的是對于數(shù)據(jù)IO處理的的能力。而這些方面的設(shè)計對于神經(jīng)網(wǎng)絡(luò)來說都是多余的。

那么,什么樣的硬件結(jié)構(gòu)設(shè)計才能更加滿足神經(jīng)網(wǎng)絡(luò)的特性呢?

其實,這個問題上,超哥講的很好。究竟什么樣的硬件結(jié)構(gòu)更加適合神經(jīng)網(wǎng)絡(luò),還得從神經(jīng)網(wǎng)絡(luò)自身的特性來分析。

就拿我們熟悉的全連接層來講,比如說,現(xiàn)在第i層的神經(jīng)元和第i+1層的神經(jīng)元之間是以全連接的方式溝通的,那么溝通每個神經(jīng)元的運算實際上是非常簡單的乘法和加法。那么在網(wǎng)絡(luò)進(jìn)行一次前向運算的過程中,硬件上能夠支持乘法和加法的運算單元越多,那么此時就能夠承載下更深的網(wǎng)絡(luò)。

對于同一層上的不同神經(jīng)元來說,我們需要他們能夠相互獨立的完成各自的運算,從這點來看,神經(jīng)網(wǎng)絡(luò)具有大規(guī)模的并行性。

不論是在網(wǎng)絡(luò)進(jìn)行前向計算還是反向計算的過程中,都會產(chǎn)生很多的中間計算結(jié)果。而這些中間結(jié)果并不是每個都會被復(fù)用,要能放下在網(wǎng)絡(luò)運算過程中產(chǎn)生的中間結(jié)果,就需要我們的硬件有足夠的帶寬。對于一個理想的設(shè)備來說,它應(yīng)該有比較大的片上存儲,并且?guī)捯惨銐?。這個時候,對于屬于的圖片信息(以視覺任務(wù)為主)和網(wǎng)絡(luò)的權(quán)重才能有足夠的空間來做存儲。就是說要它充分的利用片上資源,減少片外的訪存。

其實,在我們對一個網(wǎng)絡(luò)進(jìn)行train和inference的過程中,網(wǎng)絡(luò)本身對于計算精度并沒有我們想象的那么敏感。那么,為了能夠存下更多的權(quán)重(deep的網(wǎng)絡(luò)),我們可以使用那些比較簡單的數(shù)據(jù)類型,比如說,int8,fp16。因此,這些年來,大家對于CPU+(GPU, FPGA, TPU, ASIC)這些硬件所組成的異構(gòu)計算平臺。

第一種組合:CPU+GPU

其實,在我們平時做實驗,訓(xùn)練模型的過程中,用的最多的就是CPU+GPU這樣的組合。

借助現(xiàn)有的非常成熟的深度學(xué)習(xí)框架(mxnet,pytorch,tensorflow等),我們就能非常方便和容易的完成開發(fā)。

優(yōu)點:編程容易,運算力和吞吐量大。

缺點:GPU的功耗高,延遲大,部署實際的AI產(chǎn)品,沒人會用服務(wù)器級別的GPU。

第二種組合:CPU+FPGA

這種組合方式的功耗相比CPU+GPU就要低很多。但是,對于FPGA的開發(fā)難度則會大很多。

優(yōu)點:功耗低,方便落地

缺點:編程開發(fā)難度大,需要學(xué)習(xí)專用的硬件語言來支持相應(yīng)的設(shè)備

第三種組合:CPU+ASIC

ASIC指的的是按照產(chǎn)品需求不同而定制化的特殊規(guī)格集成電路,由特定使用者要求和特定電子系統(tǒng)的需要而設(shè)計,制造。也就是說,ASIC在特定功能上進(jìn)行了專項強(qiáng)化,可以根據(jù)需要進(jìn)行復(fù)雜的設(shè)計,從而實現(xiàn)更高的處理速度和更低的功耗。那么,ASIC的生產(chǎn)成本就會更高!

那么其實,可以對上面講的這些硬件進(jìn)行一個歸類,CPU,GPU叫做通用性芯片。ASIC叫做定制化芯片,而FPGA叫做半定制化芯片。

Google的TPU就是采用了定制化芯片的設(shè)計。

其中TPUv1采用了大量的乘法單元,有256x256個8位乘法器。片上有28MB的緩存,能夠存儲網(wǎng)絡(luò)的參數(shù)和輸入。同時,TPU上的數(shù)據(jù)和指令

說白了,就是將訓(xùn)練好的model拿來定點化做inference。

TPUv2支持了train的功能,并且也能夠使用fp進(jìn)行訓(xùn)練。

講了這三種組合,其實如果就拿inference來說,F(xiàn)PGA才是合適的硬件。


各種硬件用于前向推理的優(yōu)缺點

現(xiàn)在來看,要想設(shè)計一款適合深度神經(jīng)網(wǎng)絡(luò)的芯片,我們需要其具備什么特性呢?

支持主流的視覺任務(wù)(inference),不僅僅要支持int8,還要支持fp。

high performance,low engergy,low cost

方便開發(fā)和支持主流的DL框架

這里要提的就是地平線自己設(shè)計的BPU,它也屬于ASIC的范疇。并且支持主流的CV任務(wù)。

BPU最大的特點就是設(shè)計了彈性的Tensor Core,它能夠?qū)⒛切τ趇mage來說所需要的op硬件化,這些op包括CNN中常見的(卷積,池化等),從而非常高效的去執(zhí)行這些操作。中間通過一個叫做數(shù)據(jù)路由橋(Data Routing Bridge)的結(jié)構(gòu)從片上來讀取數(shù)據(jù),負(fù)責(zé)數(shù)據(jù)的傳輸和調(diào)度。同時,整個數(shù)據(jù)存儲資源和計算資源都可以通過編輯器輸出的指令來執(zhí)行調(diào)度,從而方便實現(xiàn)各種算法,各種model的結(jié)構(gòu),和各種不同的任務(wù)。

三,如何從算法層面設(shè)計高效的神經(jīng)網(wǎng)絡(luò)

從AI的解決方案來看存在兩種方式:

云端 AI

前端 AI

云端 AI 說的就是把我們的計算放在遠(yuǎn)程服務(wù)器上去執(zhí)行,然后把最終的計算結(jié)果傳回本地,這就要求我們的設(shè)備時時刻刻聯(lián)網(wǎng),并且存在很大的安全問題和計算傳輸延遲問題,也就是我們通常所說的通信代價。

前端 AI 說的就是設(shè)備本身就能進(jìn)行運算,不需要聯(lián)網(wǎng)。那么在安全性,實時性,適用性方面都要勝過云端 AI 。但是,他們在功耗,計算,內(nèi)存存儲等方面有很多受限。

其實關(guān)于AI 產(chǎn)品落地,還是回到上面硬件部分講過的內(nèi)容,如何去尋求一套 低功耗,高性能,低成本的解決方案。

這里拿IPC和TX2進(jìn)行比較來說明這個問題。

IPC通過網(wǎng)線來供電,功耗非常低,只有12.5w,TX2的功耗是10-15w。TX2雖然在算力和計算成本方面都要勝過IPC,但是TX2的價位對于嵌入式的方案是不能接受的。。。

那么,要想做好前端AI方案(針對embedd AI)設(shè)備來說,我們就要在給定功耗(12.5w)和算力(IPC最大能力)的情況下,去優(yōu)化我們的算法和神經(jīng)網(wǎng)絡(luò)模型,來達(dá)到符合場景落地的需要。

那么,說白了,我們最終加速網(wǎng)絡(luò)的目的就是,在網(wǎng)絡(luò)保持不錯性能的的前提下,盡量去降低計算代價和帶寬的需求。

關(guān)于網(wǎng)絡(luò)加速方面看songhan的,補。我在cs231n上學(xué)到的東西。

網(wǎng)絡(luò)量化,網(wǎng)絡(luò)剪枝,參數(shù)共享,蒸餾以及模型結(jié)構(gòu)優(yōu)化。

工業(yè)界,用的最多的就是網(wǎng)絡(luò)量化和模型結(jié)構(gòu)化的方法。

下面重點來講講這些方法:

3.1 量化

量化其實說的就是離散化。將我們原先連續(xù)變化的量通過近似從而達(dá)到離散的目的。

神經(jīng)網(wǎng)絡(luò)的量化,值得就是將原先用浮點數(shù)表示的情況改成用更低的bit,從而繼續(xù)完成原先浮點數(shù)能夠完成的訓(xùn)練和測試。

前面再將神經(jīng)網(wǎng)絡(luò)特性的時候,我們也提到了網(wǎng)絡(luò)本身對于計算精度并沒有我們想象的那么敏感。所以,比較常用的方法,就是用fp16代替fp32來做train和inference。

其實,使用fp16去訓(xùn)練,有時候還能得到比fp32更好的精度。從ML的角度來看,量化網(wǎng)絡(luò)本身就是對數(shù)據(jù)集正則化的一種方式,可以增強(qiáng)模型的泛化能力,從而提高精度

其實還可以進(jìn)一步的用int8來取代fp16,這樣操作后,帶寬只有fp32的四分之一。

當(dāng)然,如果你不擔(dān)心精度的損失,那么也可以使用4bit, 2bit, 1bit去代替int8。

神經(jīng)網(wǎng)絡(luò)的量化其實可以分為:網(wǎng)絡(luò)權(quán)重的量化和網(wǎng)絡(luò)特征的量化。

網(wǎng)絡(luò)權(quán)重的量化對于最終的結(jié)果輸出損失比較小,而特征量化對最終的結(jié)果輸出損失就比較大。大模型和小模型對量化的敏感程度也不一樣,一般小模型會更加敏感。

關(guān)于量化想更深入的了解可以看一下下面的這些講解:

深度學(xué)習(xí)量化技術(shù)科普

Pytorch實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練量化(QAT)

MXNet實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練量化

深入了解NNIE量化技術(shù)

ICCV2019 高通Data-Free Quantization論文解讀

EasyQuant 后量化算法論文解讀

3.2 模型剪枝和參數(shù)共享

可以參考下面的講解:

如何讓你的YOLOV3模型更小更快?

YOLOV3剪枝方法匯總

深度學(xué)習(xí)算法優(yōu)化系列八 | VGG,ResNet,DenseNe模型剪枝代碼實戰(zhàn)

3.3 知識蒸餾

蒸餾的思想非常簡單,其實就是用一個小模型來取代一個大模型,從而使得小模型能夠?qū)崿F(xiàn)大模型的效果。大模型在這里一般叫做Teacher Net, 小模型叫做Student Net。從小模型到大模型的學(xué)習(xí)目標(biāo),包括最終的輸出層,網(wǎng)絡(luò)中間的特征結(jié)果,以及網(wǎng)絡(luò)的連接方案。

其實,知識蒸餾本質(zhì)是一種transfer learning,比直接用小數(shù)據(jù)從頭開始訓(xùn)練一個model要得到更好的效果。

3.4 低秩近似

可以參考:https://blog.csdn.net/kathrynlala/article/details/82943291

3.5 二值化/三值化網(wǎng)絡(luò)

可以參考下面的講解:

基于Pytorch構(gòu)建一個可訓(xùn)練的BNN

基于Pytorch構(gòu)建三值化網(wǎng)絡(luò)TWN

低比特量化之XNOR-Net

低比特量化之DoreFa-Net理論與實踐

3.6 Winograd 變化

可以參考下面的講解:

詳解Winograd變換矩陣生成原理

詳解卷積中的Winograd加速算法

3.7 模型結(jié)構(gòu)化

模型結(jié)構(gòu)化其實是對模型加速最有效的一種方式。

那么關(guān)于模型結(jié)構(gòu)優(yōu)化,又會涉及到很多的知識。

接下來,就要講講怎么去設(shè)計一個高效的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它需要遵循一些基本原則。

從最初的AlexNet到現(xiàn)在的MobileNetv2,網(wǎng)絡(luò)的參數(shù)從最初的240MB降低到了35MB,

準(zhǔn)確率從57%也提高了75%。那么,我們肯定是去設(shè)計小的模型結(jié)構(gòu)從而完成相對于大模型難以完成的任務(wù)。那么在這個設(shè)計的過程中,會涉及哪些基本原則呢?

關(guān)于這些,超哥也講的非常到位,我也總結(jié)下:

小模型其實并不一定比大模型運行(inference)的快。

一個網(wǎng)絡(luò)計算量小,并不代表他就一定運行的快,因為運行速度還和帶寬有關(guān),計算量僅僅是其中的一個因素。

那么,結(jié)合上面兩點,我們就能明白。一個好的,跑起來比較快的網(wǎng)絡(luò)結(jié)構(gòu)。必須要衡量計算量和帶寬的需求。

4. 總結(jié)

總結(jié)下,如果要設(shè)計高效的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來部署到硬件平臺。那么我們應(yīng)該盡可能的讓網(wǎng)絡(luò)中的operator去做并行化計算,同時減少這些operator對于帶寬的需求。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4771

    瀏覽量

    100766
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47279

    瀏覽量

    238493
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1887

    瀏覽量

    35021
收藏 人收藏

    評論

    相關(guān)推薦

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展等多個方面,詳細(xì)闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?1071次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?577次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)一樣嗎

    時具有各自的優(yōu)勢和特點。本文將介紹遞歸神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的概念、結(jié)構(gòu)、工作原理、優(yōu)缺點以及應(yīng)用場景。 遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,RvNN) 1
    的頭像 發(fā)表于 07-05 09:28 ?861次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實際是同一個概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?759次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1295次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時,我們需要從多個維度進(jìn)行深入分析。這些維度包括
    的頭像 發(fā)表于 07-04 13:20 ?874次閱讀

    人工智能神經(jīng)網(wǎng)絡(luò)芯片介紹

    人工智能神經(jīng)網(wǎng)絡(luò)芯片是一類專門為深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)算法設(shè)計的處理器。它們具有高性能、低功耗、可擴(kuò)展等特點,廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。以下是關(guān)于人工智能
    的頭像 發(fā)表于 07-04 09:33 ?765次閱讀

    神經(jīng)網(wǎng)絡(luò)芯片與傳統(tǒng)芯片的區(qū)別和聯(lián)系

    引言 隨著人工智能技術(shù)的快速發(fā)展,深度學(xué)習(xí)算法在圖像識別、自然語言處理、語音識別等領(lǐng)域取得了顯著的成果。然而,深度學(xué)習(xí)算法對計算資源的需求非常高,傳統(tǒng)的計算芯片已經(jīng)無法滿足其需求。因此,神經(jīng)網(wǎng)絡(luò)芯片
    的頭像 發(fā)表于 07-04 09:31 ?954次閱讀

    神經(jīng)網(wǎng)絡(luò)芯片和普通芯片區(qū)別

    神經(jīng)網(wǎng)絡(luò)芯片和普通芯片的區(qū)別是一個復(fù)雜而深入的話題,涉及到計算機(jī)科學(xué)、電子工程、人工智能等多個領(lǐng)域。 定義 神經(jīng)網(wǎng)絡(luò)芯片(Neural Ne
    的頭像 發(fā)表于 07-04 09:30 ?1167次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,以達(dá)到最小化誤差的
    的頭像 發(fā)表于 07-03 11:00 ?806次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們在
    的頭像 發(fā)表于 07-03 10:12 ?1184次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的原理,包括其
    的頭像 發(fā)表于 07-02 14:44 ?654次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?3956次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    、語音識別、自然語言處理等多個領(lǐng)域。本文將對幾種主要的神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行詳細(xì)介紹,包括前饋神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、生成對抗
    的頭像 發(fā)表于 07-01 14:16 ?714次閱讀

    芯品#MAX78002 新型AI MCU,能夠使神經(jīng)網(wǎng)絡(luò)以超低功耗運行

    的Maxim超低功耗微控制器相結(jié)合。通過這款基于硬件的卷積神經(jīng)網(wǎng)絡(luò)(CNN)加速器,即使是電池供電的應(yīng)用也可執(zhí)行AI推理,同時功耗僅為微焦耳級。 MAX78002是一款先進(jìn)的片
    的頭像 發(fā)表于 05-07 17:47 ?7407次閱讀
    芯品#MAX78002 新型<b class='flag-5'>AI</b> MCU,能夠使<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>以超<b class='flag-5'>低功耗</b>運行