0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Flex Logix公司稱它解決了深度學習的DRAM問題

IEEE電氣電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-11-08 14:12 ? 次閱讀

深度學習有一個DRAM問題。設計用來實時處理復雜任務(比如,在汽車的備份攝像頭視頻流中分辨貓和孩子)的系統(tǒng),不斷地將構(gòu)成神經(jīng)網(wǎng)絡內(nèi)容的數(shù)據(jù)從存儲器傳送到處理器。

根據(jù)初創(chuàng)公司Flex Logix的說法,問題并不是缺乏存儲這些數(shù)據(jù)的空間,而是處理器和存儲器之間缺乏帶寬。為了將數(shù)百千兆比特的數(shù)據(jù)提供給處理器,有些系統(tǒng)需要4個甚至8個DRAM芯片,這既使占用的空間增加了不少,又消耗了大量的電能。Flex Logix表示,它為可重構(gòu)芯片開發(fā)的互連技術和tile-based架構(gòu)將使AI系統(tǒng)只需要1個DRAM芯片的帶寬,且功耗僅為十分之一。

圖片來源:Flex Logix

NMAX512tile的架構(gòu)。

位于加州山景城的Flex Logix公司已經(jīng)開始將一種新的嵌入式現(xiàn)場可編程門陣列(eFPGA)架構(gòu)商業(yè)化。但經(jīng)過一番探索后,其創(chuàng)始人之一Cheng C. Wang意識到,這項技術可以加快神經(jīng)網(wǎng)絡的速度。

神經(jīng)網(wǎng)絡由連接和表示連接強度的“權重”組成。另一位創(chuàng)始人Geoff Tate解釋說,一個好的AI芯片需要兩樣東西。一種是一些做關鍵“推斷”計算(即乘法和累加)的電路?!暗щy的是,你必須非常擅長引入所有這些權重,以便其乘法器總能得到它們需要的數(shù)據(jù),從而進行所需的數(shù)學運算。Wang意識到我們在FPGA的互連方面所擁有的技術,他可以對它做適應性改造,來創(chuàng)建一種非常擅長快速高效地加載權重、高性能和低功耗的架構(gòu)?!?/p>

需要快速連續(xù)地將數(shù)百萬個權重加載到網(wǎng)絡中,這就是每秒要做數(shù)萬億次到數(shù)十萬億次運算的AI系統(tǒng)為什么需要那么多DRAM芯片的原因。DRAM芯片上的每個引腳每秒最多可以傳輸4Gb數(shù)據(jù),因此要達到所需的每秒數(shù)百Gb的數(shù)據(jù)傳輸速度,就需要多個芯片。

在為FPGA開發(fā)最初的技術時,Wang注意到,這些芯片有約80%的面積互連,因此他尋求一種能夠縮小互連面積并考慮到更多邏輯的架構(gòu)。他和他在加州大學洛杉磯分校的同事對一種稱為folded-Bene?網(wǎng)絡的電信架構(gòu)做了適應性改造來完成這項工作。這使得FPGA架構(gòu)看起來像一堆邏輯和SRAM的瓦片(tile)。

圖片來源:Flex Logix

Flex Logix公司表示,在芯片中構(gòu)建分布式SRAM可加快計算速度并降低功耗。

Tate說,在這種專用互連方案中使用分布式SRAM最終會對深度學習的DRAM帶寬問題產(chǎn)生重大影響?!拔覀冋谟眯酒系腟RAM取代DRAM帶寬。”

圖片來源:Flex Logix

若干NMAXtile可以置于一個芯片上并連在一起,以擴大計算能力。

用于Flex Logix的AI產(chǎn)品的tile稱為NMAX,采用了臺積電的16納米技術,面積不到2平方毫米。每個tile都由一組核心組成,這些核心這些核心負責關鍵的乘法和累加計算、控制數(shù)據(jù)的處理和流動的可編程邏輯以及SRAM。這涉及三種不同類型的互連技術。一種tile上的所有零件連接在一起。另一種將tile與位于tile之間的附加SRAM及外部的DRAM相連接。第三種將相鄰的tile連接在一起。

在深度學習領域,很難進行真正的橫向比較。但Flex Logix的分析顯示,將使用1個DRAM芯片的模擬的6×6tile的NMAX512陣列與使用8個DRAM的Nvidia Tesla T4進行比較,結(jié)果是新架構(gòu)每秒能識別4,600張圖像,而Nvidia每秒識別3,920張圖像。在一項名為YOLOv3的實時視頻處理測試中,同樣大小的NMAX陣列可達到每秒22萬億次運算,而使用的DRAM帶寬是其他系統(tǒng)的十分之一。

Tate表示,首批NMAX芯片的設計將于2019年下半年送至代工廠以便進行制造。

Flex Logix將波音公司視作其高吞吐量嵌入式FPGA產(chǎn)品的客戶之一。但Tate承認,與神經(jīng)網(wǎng)絡相比,嵌入式FPGA是個很難賣的產(chǎn)品。“嵌入式FPGA是一項很好的業(yè)務,但是推理可能很快就會超越它?!盩ate說。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DRAM
    +關注

    關注

    40

    文章

    2320

    瀏覽量

    183704
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4777

    瀏覽量

    100970
  • 深度學習
    +關注

    關注

    73

    文章

    5510

    瀏覽量

    121349

原文標題:Flex Logix公司稱它解決了深度學習的DRAM問題

文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    ADI收購一家eFPGA公司,可重構(gòu)芯片成為FPGA發(fā)展新風向?

    ? 電子發(fā)燒友網(wǎng)報道(文/吳子鵬)日前,Flex Logix在其官網(wǎng)發(fā)文,該公司已將其技術資產(chǎn)出售給一家大型上市公司,其技術資產(chǎn)和技術團隊
    的頭像 發(fā)表于 11-12 01:22 ?2259次閱讀
    ADI收購<b class='flag-5'>了</b>一家eFPGA<b class='flag-5'>公司</b>,可重構(gòu)芯片成為FPGA發(fā)展新風向?

    NPU在深度學習中的應用

    隨著人工智能技術的飛速發(fā)展,深度學習作為其核心驅(qū)動力之一,已經(jīng)在眾多領域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡處理單元)是專門為深度學習
    的頭像 發(fā)表于 11-14 15:17 ?737次閱讀

    ADI收購Flex Logix,強化數(shù)字產(chǎn)品組合

    近日,全球領先的半導體公司ADI(Analog Devices, Inc.)宣布完成了對美國創(chuàng)新企業(yè)Flex Logix的收購。Flex Logix
    的頭像 發(fā)表于 11-12 14:17 ?420次閱讀

    今日看點丨ADI收購eFPGA公司Flex Logix;業(yè)界首款!湖北發(fā)布高性能車規(guī)級芯片DF30

    1. ADI 收購eFPGA 公司Flex Logix ? 設計可重構(gòu)AI芯片的美國創(chuàng)企Flex Logix的官網(wǎng)顯示,該
    發(fā)表于 11-11 11:26 ?623次閱讀

    GPU深度學習應用案例

    GPU在深度學習中的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像識別是深度學習
    的頭像 發(fā)表于 10-27 11:13 ?444次閱讀

    激光雷達技術的基于深度學習的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領域具有廣泛的應用前景。 二、深度學習技術的發(fā)展 深度學習是機器學習的一個分支,
    的頭像 發(fā)表于 10-27 10:57 ?464次閱讀

    FPGA加速深度學習模型的案例

    :DE5Net_Conv_Accelerator 應用場景 :面向深度學習的開源項目,實現(xiàn)AlexNet的第一層卷積運算加速。 技術特點 : 采用了Verilog語言進行編程,與PCIe接口相集成,可以直接插入到
    的頭像 發(fā)表于 10-25 09:22 ?295次閱讀

    AI大模型與深度學習的關系

    人類的學習過程,實現(xiàn)對復雜數(shù)據(jù)的學習和識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源來進行訓練和推理。深度學習算法為AI大模型提供
    的頭像 發(fā)表于 10-23 15:25 ?1036次閱讀

    深度學習中的時間序列分類方法

    時間序列分類(Time Series Classification, TSC)是機器學習深度學習領域的重要任務之一,廣泛應用于人體活動識別、系統(tǒng)監(jiān)測、金融預測、醫(yī)療診斷等多個領域。隨著深度
    的頭像 發(fā)表于 07-09 15:54 ?1077次閱讀

    深度學習與nlp的區(qū)別在哪

    方法,通過模擬人腦的神經(jīng)網(wǎng)絡結(jié)構(gòu),實現(xiàn)對數(shù)據(jù)的自動特征提取和學習。深度學習的核心是構(gòu)建多層的神經(jīng)網(wǎng)絡結(jié)構(gòu),每一層都包含大量的神經(jīng)元,這些神經(jīng)元通過權重連接,實現(xiàn)對輸入數(shù)據(jù)的逐層抽象和
    的頭像 發(fā)表于 07-05 09:47 ?1004次閱讀

    深度學習模型訓練過程詳解

    深度學習模型訓練是一個復雜且關鍵的過程,涉及大量的數(shù)據(jù)、計算資源和精心設計的算法。訓練一個深度學習模型,本質(zhì)上是通過優(yōu)化算法調(diào)整模型參數(shù),
    的頭像 發(fā)表于 07-01 16:13 ?1408次閱讀

    深度學習與傳統(tǒng)機器學習的對比

    在人工智能的浪潮中,機器學習深度學習無疑是兩大核心驅(qū)動力。它們各自以其獨特的方式推動著技術的進步,為眾多領域帶來了革命性的變化。然而,盡管它們都屬于機器學習的范疇,但
    的頭像 發(fā)表于 07-01 11:40 ?1476次閱讀

    深度解析深度學習下的語義SLAM

    隨著深度學習技術的興起,計算機視覺的許多傳統(tǒng)領域都取得了突破性進展,例如目標的檢測、識別和分類等領域。近年來,研究人員開始在視覺SLAM算法中引入深度學習技術,使得
    發(fā)表于 04-23 17:18 ?1343次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學習</b>下的語義SLAM

    FPGA在深度學習應用中或?qū)⑷〈鶪PU

    現(xiàn)場可編程門陣列 (FPGA) 解決 GPU 在運行深度學習模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達 (Nvidia) 和 AMD 等公司
    發(fā)表于 03-21 15:19

    為什么深度學習的效果更好?

    導讀深度學習是機器學習的一個子集,已成為人工智能領域的一項變革性技術,在從計算機視覺、自然語言處理到自動駕駛汽車等廣泛的應用中取得了顯著的成功。深度
    的頭像 發(fā)表于 03-09 08:26 ?653次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的效果更好?