0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

總結過去三年,MIT發(fā)布AI加速器綜述論文

OpenCV學堂 ? 來源:機器之心 ? 作者:機器之心 ? 2022-11-16 15:27 ? 次閱讀

過去幾年,關于人工智能機器學習加速器的發(fā)展進行到哪一階段了?來自 MIT 的研究者通過一篇綜述性文章總結了過去三年關于 AI 加速器和處理器的調查。

過去這一年,無論是初創(chuàng)公司還是成熟大廠,預告、發(fā)布和部署人工智能(AI)和機器學習(ML)加速器的步伐很緩慢。但這并非不合理,對于許多發(fā)布加速器報告的公司來說,他們花三到四年的時間研究、分析、設計、驗證和對加速器設計的權衡,并構建對加速器進行編程的技術堆棧。對于那些已發(fā)布升級版本加速器的公司來說,雖然他們報告的開發(fā)周期更短,但至少還是要兩三年。這些加速器的重點仍然是加速深層神經網絡(DNN)模型,應用場景從極低功耗嵌入式語音識別和圖像分類到數據中心大模型訓練,典型的市場和應用領域的競爭仍在繼續(xù),這是工業(yè)公司和技術公司從現代傳統計算向機器學習解決方案轉變的重要部分。

人工智能生態(tài)系統將邊緣計算、傳統高性能計算(HPC)和高性能數據分析(HPDA)的組件結合在一起,這些組件必須協同工作,才能有效地給決策者、一線人員和分析師賦能。圖 1 展示了這種端到端 AI 解決方案及其組件的架構概覽。

b76584ba-64fa-11ed-8abf-dac502259ad0.png

原始數據首先需要進行數據規(guī)整,在該步驟中數據被融合、聚合、結構化、累積并轉換為信息。數據規(guī)整步驟生成的信息作為神經網絡等有監(jiān)督或無監(jiān)督算法的輸入,這些算法可提取模式、填充缺失數據或查找數據集之間的相似性、進行預測,從而將輸入信息轉換為可操作的知識。這些可操作的知識將會傳遞給人類,用于人機協作階段的決策過程。人機協作階段為用戶提供有用且重要的洞察,將知識轉化為可操作的智能或洞察力。

支撐這個系統的是現代計算系統。摩爾定律的趨勢已經結束,但同時還有許多相關的定律和趨勢被提出來,如 Denard 定律(功率密度)、時鐘頻率、核心數、每時鐘周期的指令和每焦耳的指令(Koomey 定律)。從最早出現在汽車應用、機器人智能手機中的片上系統(SoC)趨勢來看,通過開發(fā)和集成常用內核、方法或功能的加速器,其創(chuàng)新仍在不斷進步。這些加速器在性能和功能靈活性之間存在不同的平衡,包括深度學習處理器和加速器的創(chuàng)新爆發(fā)。通過閱讀大量相關論文,本文探討了這些技術的相對優(yōu)勢,因為它們對于將人工智能應用于對大小、重量和功率等有極大要求的嵌入式系統和數據中心時特別重要。

本文是對 IEEE-HPEC 過去三年論文的一次更新。與過去幾年一樣,本文繼續(xù)關注深度神經網絡(DNN)和卷積神經網絡(CNN)的加速器和處理器,它們的計算量極大。本文主要針對加速器和處理器在推理方面的發(fā)展,因為很多 AI/ML 邊緣應用極度依賴推理。本文針對加速器支持的所有數字精度類型,但對于大多數加速器來說,它們的最佳推理性能是 int8 或 fp16/bf16(IEEE 16 位浮點或 Google 的 16 位 brain float)。

b79413ca-64fa-11ed-8abf-dac502259ad0.png

論文鏈接:https://arxiv.org/pdf/2210.04055.pdf

目前,已經有很多探討 AI 加速器的論文。如本系列調查的第一篇論文就有探討某些 AI 模型的 FPGA 的峰值性能,之前的調查都深入覆蓋了 FPGA,因此不再包含在本次調查中。這項持續(xù)調查工作和文章旨在收集一份全面的 AI 加速器列表,包括它們的計算能力、能效以及在嵌入式和數據中心應用中使用加速器的計算效率。與此同時文章主要比較了用于政府和工業(yè)傳感器和數據處理應用的神經網絡加速器。前幾年論文中包含的一些加速器和處理器已被排除在今年的調查之外,之所以放棄它們,是因為它們可能已經被同一家公司的新加速器替代、不再維護或者與主題不再相關。

處理器調查

人工智能的許多最新進展部分原因要歸功于硬件性能的提升,這使得需要巨大算力的機器學習算法,尤其是 DNN 等網絡能夠實現。本文的這次調查從公開可用的材料中收集各類信息,包括各種研究論文、技術期刊、公司發(fā)布的基準等。雖然還有其他方法獲取公司和初創(chuàng)公司(包括那些處于沉默期的公司)的信息,但本文在本次調查時忽略了這些信息,這些數據將在公開后納入該調查。該公共數據的關鍵指標如下圖所示,其反映了最新的處理器峰值性能與功耗的關系能力(截至 2022 年 7 月)。

b7c1485e-64fa-11ed-8abf-dac502259ad0.png

注意:圖 2 中虛線方框與下圖 3 是對應的,圖 3 是把虛線框放大后的圖。

b8022914-64fa-11ed-8abf-dac502259ad0.png

圖中 x 軸表示峰值功率,y 軸表示每秒峰值千兆操作數(GOps/s),均為對數尺度。處理能力的計算精度用不同幾何形狀表示,計算精度范圍從 int1 到 int32、從 fp16 到 fp64。顯示的精度有兩種類型,左邊代表乘法運算的精度,右邊代表累加 / 加運算的精度(如 fp16.32 表示 fp16 乘法和 fp32 累加 / 加)。使用顏色和形狀區(qū)分不同類型系統和峰值功率。藍色表示單芯片;橙色表示卡;綠色表示整體系統(單節(jié)點桌面和服務器系統)。此次調查僅限于單主板、單內存系統。圖中空心幾何圖形是僅進行推理加速器的最高性能,而實心幾何圖形代表執(zhí)行訓練和推理的加速器的性能。

本次調查中本文以過去三年調查數據的散點圖開篇。下表 1 中本文總結了加速器、卡和整體系統的一些重要元數據,包括圖 2 中每個點的標簽,許多要點都是從去年的調查中提出來的。表 1 中大多數列和條目都是準確清楚的。但有兩個技術條目可能不是:Dataflow 和 PIM。Dataflow 型處理器是為神經網絡推理和訓練定制的處理器。由于神經網絡訓練和推理計算完全確定地構建,因此它們適合 dataflow 處理,其中計算、內存訪問和 ALU 間通信被顯式 / 靜態(tài)編程或者布局布線到計算硬件。內存處理器(PIM)加速器將處理元素與內存技術集成在一起。在這些 PIM 加速器中,有一些基于模擬計算技術的加速器,該技術使用就地模擬乘法加法功能增強閃存電路??梢詤⒖?Mythic 和 Gyrfalcon 加速器的相關資料,了解關于此創(chuàng)新技術的更多詳細信息。

b8284b94-64fa-11ed-8abf-dac502259ad0.png

本文根據加速器的預期應用對其進行合理分類,圖 1 用橢圓標識了五類加速器,根據性能和功耗做對應:功耗非常低,傳感器非常小的語音處理;嵌入式攝像機、小型無人機和機器人;駕駛輔助系統、自動駕駛和自動機器人;數據中心的芯片和卡;數據中心系統。

大多數加速器的性能、功能等指標都沒有改變,可以參閱過去兩年的論文以了解相關信息。下面的是沒有被過去的文章所收錄的加速器。

荷蘭嵌入式系統初創(chuàng)公司 Acelera 聲稱他們生產的嵌入式測試芯片具有數字和模擬設計能力,而這種測試芯片是為了測試數字設計能力的范圍。他們希望在未來的工作中增加模擬(也可能是閃存)設計要素。

Maxim Integrated 發(fā)布了一款名為 MAX78000 用于超低功耗應用的系統芯片(SoC)。其包括 ARM CPU 內核、RISC-V CPU 內核和 AI 加速器。ARM 核心用于快速原型設計和代碼重用,而 RISC-V 核心用于實現優(yōu)化,以實現最低的功耗。AI 加速器有 64 個并行處理器,支持 1 位、2 位、4 位和 8 位整數運算。SoC 的最大工作功率為 30mW,適用于低延遲、電池供電的應用。

Tachyum 最近發(fā)布名為 Prodigy 一體式處理器,Prodigy 每個核心都集成 CPU 和 GPU 的功能,它是為 HPC 和機器學習應用程序設計的,該芯片有 128 個高性能統一內核,運行頻率為 5.7GHz。

NVIDIA 于 2022 年 3 月發(fā)布了名為 Hopper(H100)的下一代 GPU。Hopper 集成更多的 Symmetric Multiprocessor(SIMD 和 Tensor 核),50% 的內存帶寬,SXM 夾層卡實例的功率為 700W。(PCIe 卡功率為 450W)

過去幾年 NVIDIA 發(fā)布了一系列系統平臺,用于部署在汽車、機器人和其他嵌入式應用程序 Ampere 架構的 GPU。對于汽車應用,DRIVE AGX 平臺增加了兩個新系統:DRIVE AGX L2 可在 45W 功率范圍內實現 2 級自動駕駛,DRIVE AGX L5 可在 800W 功率范圍內能實現 5 級自動駕駛。Jetson AGX Orin 和 Jetson NX Orin 也使用 Ampere 架構 GPU,用于機器人、工廠自動化等,它們最大峰值功率為 60W 和 25W。

Graphcore 發(fā)布其第二代加速器芯片 CG200,它部署在 PCIe 卡上,峰值功率約為 300W。去年,Graphcore 還推出 Bow 加速器,這是與臺積電合作設計的首款晶圓對晶圓處理器。加速器本身與上面提到的 CG200 相同,但它與第二塊晶片配合使用,從而大大改善了整個 CG200 芯片的功率和時鐘分布。這意味著性能提高了 40% 以及 16% 每瓦特的性能提升。

2021 年 6 月,谷歌宣布了其第四代純推理 TPU4i 加速器的詳細信息。將近一年后,谷歌分享了其第 4 代訓練加速器 TPUv4 的詳細信息。雖然官宣的細節(jié)很少,但他們分享了峰值功率和相關性能數值。與以前的 TPU 各種版本一樣,TPU4 可通過 Google Compute Cloud 獲得并用于內部操作。

接下來是對沒有出現在圖 2 中的加速器的介紹,其中每個版本都發(fā)布一些基準測試結果,但有的缺少峰值性能,有的沒有公布峰值功率,具體如下。

SambaNova 去年發(fā)布了一些可重構 AI 加速器技術的基準測試結果,今年也發(fā)布了多項相關技術并與阿貢國家實驗室合作發(fā)表了應用論文,不過 SambaNova 沒有提供任何細節(jié),只能從公開的資料估算其解決方案的峰值性能或功耗。

今年 5 月,英特爾 Habana 實驗室宣布推出第二代 Goya 推理加速器和 Gaudi 訓練加速器,分別命名為 Greco 和 Gaudi2。兩者性能都比之前版本表現好幾倍。Greco 是 75w 的單寬 PCIe 卡,而 Gaudi2 還是 650w 的雙寬 PCIe 卡(可能在 PCIe 5.0 插槽上)。Habana 發(fā)布了 Gaudi2 與 Nvidia A100 GPU 的一些基準比較,但沒有披露這兩款加速器的峰值性能數據。

Esperanto 已經生產了一些 Demo 芯片,供三星和其他合作伙伴評估。該芯片是一個 1000 核 RISC-V 處理器,每個核都有一個 AI 張量加速器。Esperanto 已經發(fā)布了部分性能指標,但它們沒有披露峰值功率或峰值性能。

特斯拉 AI Day 中,特斯拉介紹了他們定制的 Dojo 加速器以及系統的一些細節(jié)。他們的芯片具有 22.6 TF FP32 性能的峰值,但沒有公布每個芯片的峰值功耗,也許這些細節(jié)會在以后公布。

去年 Centaur Technology 推出一款帶有集成 AI 加速器的 x86 CPU,其擁有 4096 字節(jié)寬的 SIMD 單元,性能很有競爭力。但 Centaur 的母公司 VIA Technologies 將位于美國的處理器工程團隊賣給了 Intel,似乎已經結束了 CNS 處理器的開發(fā)。

一些觀察以及趨勢

圖 2 中有幾個觀察值得一提,具體內容如下。

Int8 仍然是嵌入式、自主和數據中心推理應用程序的默認數字精度。這種精度對于使用有理數的大多數 AI/ML 應用程序來說是足夠的。同時一些加速器使用 fp16 或 bf16。模型訓練使用整數表示。

在極低功耗的芯片中,除了用于機器學習的加速器之外,還沒發(fā)現其他額外功能。在極低功耗芯片和嵌入式類別中,發(fā)布片上系統(SoC)解決方案是很常見的,通常包括低功耗 CPU 內核、音頻視頻模數轉換器ADC)、加密引擎、網絡接口等。SoC 的這些附加功能不會改變峰值性能指標,但它們確實會對芯片報告的峰值功率產生直接影響,所以在比較它們時這一點很重要。

嵌入式部分的變化不大,就是說計算性能和峰值功率足以滿足該領域的應用需求。

過去幾年,包括德州儀器在內的幾家公司已經發(fā)布了 AI 加速器。而 NVIDIA 也發(fā)布了一些性能更好的汽車和機器人應用系統,如前所述。在數據中心中,為了突破 PCIe v4 300W 的功率限制,PCIe v5 規(guī)格備受期待。

最后,高端訓練系統不僅發(fā)布了令人印象深刻的性能數據,而且這些公司還發(fā)布了高度可擴展的互聯技術,將數千張卡連接在一起。這對于像 Cerebras、GraphCore、Groq、Tesla Dojo 和 SambaNova 這樣的數據流加速器尤其重要,這些加速器通過顯式 / 靜態(tài)編程或布局布線到計算硬件上的。這樣一來它使這些加速器能夠適應像 transformer 這種超大模型。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 加速器
    +關注

    關注

    2

    文章

    802

    瀏覽量

    37928
  • MIT
    MIT
    +關注

    關注

    3

    文章

    253

    瀏覽量

    23415
  • 機器學習
    +關注

    關注

    66

    文章

    8423

    瀏覽量

    132757

原文標題:總結過去三年,MIT發(fā)布AI加速器綜述論文

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    英偉達AI加速器新藍圖:集成硅光子I/O,3D垂直堆疊 DRAM 內存

    加速器設計的愿景。 英偉達認為未來整個 AI 加速器復合體將位于大面積先進封裝基板之上,采用垂直供電,集成硅光子 I/O 器件,GPU 采用多模塊設計,3D 垂直堆疊 DRAM 內存,并在模塊內直接整合
    的頭像 發(fā)表于 12-13 11:37 ?230次閱讀
    英偉達<b class='flag-5'>AI</b><b class='flag-5'>加速器</b>新藍圖:集成硅光子I/O,3D垂直堆疊 DRAM 內存

    從版本控制到全流程支持:揭秘Helix Core如何成為您的創(chuàng)意加速器

    加速器
    龍智DevSecOps
    發(fā)布于 :2024年11月26日 13:42:47

    IBM與AMD攜手部署MI300X加速器,強化AI與HPC能力

    舉措預計將于2025上半年正式推出。 此次合作的核心目標是提升通用人工智能(AI)模型的性能與能效,并為企業(yè)客戶提供高性能計算(HPC)應用的強大支持。AMD的Instinct MI300X加速器憑借其
    的頭像 發(fā)表于 11-21 11:07 ?250次閱讀

    IBM將在云平臺部署AMD加速器

    IBM與AMD近期宣布了一項重要合作協議,根據協議,IBM將在其云平臺上部署AMD Instinct MI300X加速器。這一舉措旨在提升企業(yè)客戶在生成式AI模型方面的性能和能效,進一步推動AI技術的創(chuàng)新與應用。
    的頭像 發(fā)表于 11-19 16:24 ?235次閱讀

    英特爾發(fā)布Gaudi3 AI加速器,押注低成本優(yōu)勢挑戰(zhàn)市場

    英特爾近期震撼發(fā)布了專為AI工作負載設計的Gaudi3加速器,這款新芯片雖在速度上不及英偉達熱門型號H100與H200 GPU,但英特爾巧妙地將競爭優(yōu)勢聚焦于其更為親民的價格與總擁有成本(TCO)上。
    的頭像 發(fā)表于 09-26 16:16 ?841次閱讀

    SiFive發(fā)布MX系列高性能AI加速器IP

    AI技術日新月異的今天,RISC-V IP設計領域的領軍企業(yè)SiFive再次引領行業(yè)潮流,正式推出了其革命性的SiFive Intelligence XM系列高性能AI加速器IP。這一創(chuàng)新產品專為
    的頭像 發(fā)表于 09-24 14:46 ?373次閱讀

    下一代高功能新一代AI加速器(DRP-AI3):10x在高級AI系統高級AI中更快的嵌入處理

    電子發(fā)燒友網站提供《下一代高功能新一代AI加速器(DRP-AI3):10x在高級AI系統高級AI中更快的嵌入處理.pdf》資料免費下載
    發(fā)表于 08-15 11:06 ?0次下載
    下一代高功能新一代<b class='flag-5'>AI</b><b class='flag-5'>加速器</b>(DRP-<b class='flag-5'>AI</b>3):10x在高級<b class='flag-5'>AI</b>系統高級<b class='flag-5'>AI</b>中更快的嵌入處理

    西門子推出Catapult AI NN軟件,賦能神經網絡加速器設計

    西門子數字化工業(yè)軟件近日發(fā)布了Catapult AI NN軟件,這款軟件在神經網絡加速器設計領域邁出了重要一步。Catapult AI NN軟件專注于在專用集成電路(ASIC)和芯片級
    的頭像 發(fā)表于 06-19 11:27 ?881次閱讀

    美國限制向中東AI加速器出口,審查國家安全

    AI加速器能協助數據中心處理大量人工智能聊天機器人和其他工具的開發(fā)信息。如今,它們已然成為構建AI基礎設施的企業(yè)和政府的必需品。
    的頭像 發(fā)表于 05-31 09:20 ?600次閱讀

    Arm發(fā)布新一代Ethos-U AI加速器 Arm旨在瞄準國產CPU市場

    Arm發(fā)布的新一代Ethos-U AI加速器確實在業(yè)界引起了廣泛關注。
    的頭像 發(fā)表于 04-18 15:59 ?774次閱讀

    Arm推動生成式AI落地邊緣!全新Ethos-U85 AI加速器支持Transformer 架構,性能提升四倍

    等領先企業(yè)均已推出搭載 Ethos-U 的量產芯片。最近,Arm發(fā)布Arm Ethos-U85 AI加速器,這款加速器在性能、算力、應用場景方面進一步拓展,著
    的頭像 發(fā)表于 04-16 09:10 ?4643次閱讀
    Arm推動生成式<b class='flag-5'>AI</b>落地邊緣!全新Ethos-U85 <b class='flag-5'>AI</b><b class='flag-5'>加速器</b>支持Transformer 架構,性能提升四倍

    京東發(fā)布AI換新加速計劃 擁抱AI新浪潮

    、權益先享、優(yōu)惠先得。 以舊換新專項扶持計劃:整合30億元加碼以舊換新補貼,未來三年以舊換新撬動新品銷售超1000億。 趨勢品AI換新加速計劃:擔當生成式AI產業(yè)發(fā)展的
    的頭像 發(fā)表于 03-14 15:06 ?661次閱讀

    瑞薩發(fā)布下一代動態(tài)可重構人工智能處理加速器

    瑞薩最新發(fā)布的動態(tài)可重構人工智能處理(DRP-AI加速器,在業(yè)界引起了廣泛關注。這款加速器擁有卓越的10 TOPS/W高功率效率,相比傳
    的頭像 發(fā)表于 03-08 13:45 ?786次閱讀

    家居智能化,推動AI加速器的發(fā)展

    電子發(fā)燒友網報道(文/黃山明)AI加速芯片,也稱為人工智能加速器AI Accelerator),是一種專為執(zhí)行機器學習和深度學習任務而設計的ASIC或定制化處理
    的頭像 發(fā)表于 02-23 00:18 ?4606次閱讀

    回旋加速器原理 回旋加速器的影響因素

    回旋加速器(Cyclotron)是一種用于加速帶電粒子的可再生粒子加速器。它的工作原理基于帶電粒子在恒定強磁場中的運動。本文將詳細介紹回旋加速器的原理以及影響因素。 一、回旋
    的頭像 發(fā)表于 01-30 10:02 ?4134次閱讀