0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

獨(dú)特的方式操縱SRAM單元以處理深度學(xué)習(xí)任務(wù)

ss ? 來源:宇芯電子 ? 作者:宇芯電子 ? 2020-09-19 09:15 ? 次閱讀

一種新穎的深度學(xué)習(xí)加速器。專用單元定義了一個SRAM,該單元可以處理矩陣乘法,量化,存儲以及推理處理器所需的其他工作。

在Spice仿真中,當(dāng)使用8位整數(shù)數(shù)學(xué)識別手寫數(shù)字時,該設(shè)計(jì)可提供100兆次操作/秒/瓦(TOPS / W)。它的計(jì)算密度可以擊敗Google的TPU一個數(shù)量級。

該設(shè)計(jì)是使用內(nèi)存中計(jì)算方法的加速器產(chǎn)品線中最新的一種。設(shè)計(jì)使用40納米NOR閃存單元的深度學(xué)習(xí)處理器,其目標(biāo)是為監(jiān)視攝像機(jī)等設(shè)備使用低功耗芯片。

設(shè)計(jì)時使用了很少的模擬電路,因此可以擴(kuò)展到精細(xì)的工藝節(jié)點(diǎn)。它可能成為低功耗處理器中引擎(從邊緣到云)的引擎。

獨(dú)特的方式操縱SRAM單元以處理深度學(xué)習(xí)任務(wù)

這個設(shè)計(jì)使用戶可以為從權(quán)重到神經(jīng)網(wǎng)絡(luò)層甚至單個神經(jīng)元的所有內(nèi)容創(chuàng)建自定義參數(shù)。這種靈活性可以使將來設(shè)計(jì)用于訓(xùn)練處理器的設(shè)計(jì)成為可能。但是尚無用于對該設(shè)計(jì)進(jìn)行編程的軟件堆棧,可能會在以后解決或留給將來的客戶使用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31338

    瀏覽量

    269740
  • SPICE
    +關(guān)注

    關(guān)注

    6

    文章

    182

    瀏覽量

    42643
收藏 人收藏

    評論

    相關(guān)推薦

    深度學(xué)習(xí)中RNN的優(yōu)勢與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過在每個時間步長上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時間序列數(shù)據(jù)中的長期依賴關(guān)系。然而,盡管RNN在某些任務(wù)上表現(xiàn)出色,它們
    的頭像 發(fā)表于 11-15 09:55 ?548次閱讀

    NPU與傳統(tǒng)處理器的區(qū)別是什么

    和GPU相比,NPU在處理深度學(xué)習(xí)任務(wù)時展現(xiàn)出了顯著的優(yōu)勢。 1. 設(shè)計(jì)目的 傳統(tǒng)處理器: CPU(中央
    的頭像 發(fā)表于 11-15 09:29 ?486次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為
    的頭像 發(fā)表于 11-14 15:17 ?750次閱讀

    pcie在深度學(xué)習(xí)中的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計(jì)算能力來訓(xùn)練。傳統(tǒng)的CPU計(jì)算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理
    的頭像 發(fā)表于 11-13 10:39 ?466次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    自然語言處理(NLP)是人工智能領(lǐng)域的一個重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長短期記憶(LSTM)網(wǎng)絡(luò)的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?463次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?240次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識別、自動駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過程。 二、自然語言處理 自然語言處理(NLP)是
    的頭像 發(fā)表于 10-27 11:13 ?444次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計(jì)算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?226次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來會怎樣發(fā)展,能走多遠(yuǎn),你怎么看。 A:FPGA 在深度學(xué)習(xí)領(lǐng)域具有
    發(fā)表于 09-27 20:53

    深度學(xué)習(xí)中反卷積的原理和應(yīng)用

    像分割、圖像重建和生成對抗網(wǎng)絡(luò)(GANs)等,反卷積展現(xiàn)出了其獨(dú)特的優(yōu)勢和廣泛的應(yīng)用前景。本文將詳細(xì)探討深度學(xué)習(xí)中的反卷積技術(shù),包括其定義、原理、實(shí)現(xiàn)方式、應(yīng)用場景以及與其他上采樣方法
    的頭像 發(fā)表于 07-14 10:22 ?2156次閱讀

    深度學(xué)習(xí)中的時間序列分類方法

    時間序列分類(Time Series Classification, TSC)是機(jī)器學(xué)習(xí)深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之一,廣泛應(yīng)用于人體活動識別、系統(tǒng)監(jiān)測、金融預(yù)測、醫(yī)療診斷等多個領(lǐng)域。隨
    的頭像 發(fā)表于 07-09 15:54 ?1086次閱讀

    深度學(xué)習(xí)在視覺檢測中的應(yīng)用

    深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個重要分支,其核心在于通過構(gòu)建具有多層次的神經(jīng)網(wǎng)絡(luò)模型,使計(jì)算機(jī)能夠從大量數(shù)據(jù)中自動學(xué)習(xí)并提取特征,進(jìn)而實(shí)現(xiàn)對復(fù)雜任務(wù)
    的頭像 發(fā)表于 07-08 10:27 ?812次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    到自然語言處理,深度學(xué)習(xí)和CNN正逐步改變著我們的生活方式。本文將深入探討深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-02 18:19 ?979次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    學(xué)習(xí)框架,它們各自擁有獨(dú)特的特點(diǎn)和優(yōu)勢。本文將從背景介紹、核心特性、操作步驟、性能對比以及選擇指南等方面對TensorFlow和PyTorch進(jìn)行詳細(xì)比較,幫助讀者了解這兩個框架的優(yōu)缺點(diǎn),并選擇最適合自己需求的框架。
    的頭像 發(fā)表于 07-02 14:04 ?1023次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動力。它們各自以其獨(dú)特方式推動著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管
    的頭像 發(fā)表于 07-01 11:40 ?1491次閱讀