0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

華為降低憶阻器對(duì)神經(jīng)網(wǎng)絡(luò)的影響專利

汽車玩家 ? 來源:愛集微 ? 作者:嘉德IPR ? 2020-04-13 15:51 ? 次閱讀

華為申請(qǐng)的此項(xiàng)專利,能夠在保證神經(jīng)網(wǎng)絡(luò)精度的前提下,壓縮網(wǎng)絡(luò)模型,同時(shí)還能極大地減小了憶阻器器件噪音對(duì)神經(jīng)網(wǎng)絡(luò)準(zhǔn)確性的影響。

集微網(wǎng)消息,憶阻器全稱記憶電阻,即表示具有記憶能力的電阻,被認(rèn)為是能夠突破摩爾定律的新方向。有數(shù)據(jù)統(tǒng)計(jì)稱,一個(gè)憶阻器的工作量相當(dāng)于一枚CPU芯片中十幾個(gè)晶體管共同產(chǎn)生的效用,而國內(nèi)巨頭華為公司也開始“低調(diào)”研發(fā)。

近年來,神經(jīng)網(wǎng)絡(luò)(neural network,NN)計(jì)算取得了突破性進(jìn)展,在圖像識(shí)別、語言識(shí)別、自然語言處理等諸多領(lǐng)域均取得了很高的準(zhǔn)確率。然而神經(jīng)網(wǎng)絡(luò)需要海量計(jì)算資源,傳統(tǒng)的通用處理器已經(jīng)很難滿足深度學(xué)習(xí)的計(jì)算需求,設(shè)計(jì)專用芯片已經(jīng)成為了一個(gè)重要的發(fā)展方向。憶阻器具有高密度、非易失、低功耗、存算合一、易于3D等優(yōu)點(diǎn),為神經(jīng)網(wǎng)絡(luò)芯片設(shè)計(jì)提供了一種高效的解決方案。憶阻器陣列作為神經(jīng)網(wǎng)絡(luò)加速芯片,以加速矩陣乘法運(yùn)算為主要的設(shè)計(jì)目標(biāo),整個(gè)過程在模擬電路下實(shí)現(xiàn),具有速度快,面積小的優(yōu)點(diǎn)。

但是,憶阻器器件在實(shí)際應(yīng)用中,存在噪音的問題,即設(shè)置的憶阻器電導(dǎo)值并不精確的等于所需要的值,而是落在期望值附近的一個(gè)分布中。如何降低憶阻器器件噪聲對(duì)神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確性的影響,是亟待解決的問題。

為此,華為申請(qǐng)了一項(xiàng)名為“一種神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法及裝置”的發(fā)明專利(申請(qǐng)?zhí)枺?01810702883 .9),申請(qǐng)人為華為技術(shù)有限公司。

圖1 神經(jīng)網(wǎng)絡(luò)示意圖

神經(jīng)網(wǎng)絡(luò)的建模通常以若干神經(jīng)元為一層,層與層之間相互連接來構(gòu)建,如圖1所示,是一種鏈狀的神經(jīng)網(wǎng)絡(luò)示意圖。其中圖1中每一個(gè)圓表示一個(gè)神經(jīng)元,每一個(gè)箭頭表示神經(jīng)元之間的連接,每個(gè)連接均有權(quán)重。

在神經(jīng)網(wǎng)絡(luò)的應(yīng)用中,矩陣向量乘運(yùn)算是常見的操作,可以利用憶阻器交叉開關(guān)陣列具有的存儲(chǔ)和計(jì)算在同一個(gè)物理位置的特性,用憶阻器交叉開關(guān)陣列來進(jìn)行矩陣向量乘運(yùn)算來提高神經(jīng)網(wǎng)絡(luò)的計(jì)算效率。

華為降低憶阻器對(duì)神經(jīng)網(wǎng)絡(luò)的影響專利

圖2 憶阻器開關(guān)陣列

本專利提出的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法可以應(yīng)用于如圖2所示的憶阻器開關(guān)陣列,如圖2所示,輸入向量為不同的電壓值V0-Vn,可以表示為向量V,經(jīng)過憶阻器交叉開關(guān)陣列計(jì)算后,輸出為新的電壓值V '0-V 'm,可以表示為向量V '。其中,V '=VGRs,向量Rs包括元素 rs0, rs1,…, rsm其中rsj表示第j列的接地電阻值。

實(shí)際應(yīng)用中,憶阻器器件的噪音會(huì)給基于憶阻器的神經(jīng)網(wǎng)絡(luò)的表達(dá)能力帶來負(fù)面影響,為了消除噪音對(duì)于實(shí)際神經(jīng)網(wǎng)絡(luò)性能的影響,可以在神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)引入噪音,通過將底層器件噪音暴露給軟件訓(xùn)練層面,來抵消一部分硬件層面的噪音所帶來的精度影響。

華為降低憶阻器對(duì)神經(jīng)網(wǎng)絡(luò)的影響專利

圖3 神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法示意圖

該專利中提出的可用于圖1、2的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法示意圖如上所示,該訓(xùn)練方法主要包括如下幾個(gè)步驟:

首先,將第一權(quán)重矩陣中絕對(duì)值小于或者等于預(yù)設(shè)門限的元素進(jìn)行剪枝操作獲取第二權(quán)重矩陣。其中,第一權(quán)重矩陣為預(yù)設(shè)權(quán)重矩陣,可以將神經(jīng)網(wǎng)絡(luò)中需要進(jìn)行訓(xùn)練的權(quán)重矩陣設(shè)置為預(yù)設(shè)權(quán)重矩陣。然后為第二權(quán)重矩陣的每個(gè)元素附加一個(gè)噪音,該噪音用于模擬憶阻器器件噪音,以此獲得第三權(quán)重矩陣。接著,根據(jù)第三權(quán)重矩陣進(jìn)行前向傳播,并將相應(yīng)的結(jié)果與目標(biāo)值進(jìn)行比較,獲得損失值。最后再將損失值和第一權(quán)重矩陣進(jìn)行反向傳播以獲取目標(biāo)權(quán)重矩陣。

華為申請(qǐng)的此項(xiàng)專利,能夠在保證神經(jīng)網(wǎng)絡(luò)精度的前提下,壓縮網(wǎng)絡(luò)模型,同時(shí)還能極大地減小了憶阻器器件噪音對(duì)神經(jīng)網(wǎng)絡(luò)準(zhǔn)確性的影響。

雖然憶阻器前景較好,但國內(nèi)市場進(jìn)行憶阻器芯片研發(fā)的企業(yè)較少,憶阻器的大部分技術(shù)仍停留在實(shí)驗(yàn)室階段,而作為國內(nèi)科技“領(lǐng)頭羊”的華為公司也開始展開阻器的研究,可謂給其他企業(yè)吃了一顆“定心丸”,勢必會(huì)引起國內(nèi)憶阻器行業(yè)的研發(fā)浪潮。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 華為
    +關(guān)注

    關(guān)注

    216

    文章

    34476

    瀏覽量

    252059
  • 憶阻器
    +關(guān)注

    關(guān)注

    8

    文章

    73

    瀏覽量

    19878
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    自旋:最像大腦的存儲(chǔ)

    ? 一種名為“自旋”的新型神經(jīng)形態(tài)元件模仿人類大腦的節(jié)能運(yùn)作,將AI應(yīng)用程序的功耗降低到傳統(tǒng)設(shè)備的1/100。TDK與法國研究機(jī)構(gòu)CE
    的頭像 發(fā)表于 12-07 10:08 ?169次閱讀

    吉時(shí)利源表軟件在測試中的應(yīng)用

    在現(xiàn)代電子技術(shù)的發(fā)展中,作為一種新型的非線性元件,因其在存儲(chǔ)、神經(jīng)網(wǎng)絡(luò)和模擬計(jì)算等領(lǐng)域的廣泛應(yīng)用而備受關(guān)注。為了有效地測試和評(píng)估
    的頭像 發(fā)表于 11-19 16:24 ?237次閱讀
    吉時(shí)利源表軟件在<b class='flag-5'>憶</b><b class='flag-5'>阻</b><b class='flag-5'>器</b>測試中的應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?544次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 07-10 15:24 ?1609次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展等多個(gè)方面,詳細(xì)闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?1163次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?591次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實(shí)際上是同一個(gè)概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?808次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1346次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需要從多個(gè)維度進(jìn)行深入分析。這些維度包括
    的頭像 發(fā)表于 07-04 13:20 ?943次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,以達(dá)到最小化誤差的
    的頭像 發(fā)表于 07-03 11:00 ?828次閱讀

    bp神經(jīng)網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來訓(xùn)練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)在某些方面與深度
    的頭像 發(fā)表于 07-03 10:14 ?872次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們?cè)?/div>
    的頭像 發(fā)表于 07-03 10:12 ?1240次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?4308次閱讀

    通向計(jì)算新未來,自旋進(jìn)一步降低能耗

    的全稱是記憶電阻,是一種表示磁通和電荷關(guān)系的電路元件。通過測定的阻值,可知道流經(jīng)它的電荷量,從而有記憶電荷的作用。
    的頭像 發(fā)表于 04-30 00:53 ?3871次閱讀

    如何利用技術(shù)改變高精度的科學(xué)計(jì)算

    當(dāng)組織成縱橫陣列時(shí),這種電路通過以大規(guī)模并行方式使用物理定律進(jìn)行模擬計(jì)算,從而大大加速矩陣運(yùn)算,這是神經(jīng)網(wǎng)絡(luò)中最常用但非常耗電的計(jì)算。
    發(fā)表于 04-03 15:18 ?708次閱讀