電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))無論是前段時間爆火的繪圖模型Stable Diffusion,還是大規(guī)模語言模型ChatGPT,AI無疑已經(jīng)成了新時代的自動化工具,哪怕是在某些與認(rèn)知相關(guān)的任務(wù)上,也能通過深度學(xué)習(xí)實(shí)現(xiàn)高于人類的精度。
但正因我們提過多次的算力問題,對于大型AI訓(xùn)練的計(jì)算要求已經(jīng)在每兩個月翻倍了,別說可持續(xù)能源供應(yīng)了,就連硬件的可持續(xù)都有些陷入停滯了。其實(shí)以目前各種模型的迭代速度來看,更高的運(yùn)算效率才是重中之重,畢竟這些模型并不需要每兩個月就推陳出新。
深度學(xué)習(xí)還有哪些環(huán)節(jié)可以提升效率
我們先從深度學(xué)習(xí)運(yùn)算來看哪些算數(shù)運(yùn)算占比最高,根據(jù)IBM給出的統(tǒng)計(jì)數(shù)據(jù),無論是語音識別的RNN、語言模型DNN和視覺模型CNN,矩陣向量乘法都占據(jù)了運(yùn)算總數(shù)的70%到90%,所以打造一個矩陣矢量乘法加速器,是多數(shù)AI加速器的思路。
數(shù)據(jù)傳輸和運(yùn)算的功耗對比 / ISSCC
要考慮效率,我們就不能不談到功耗的問題,如果只顧算力而不考慮功耗,任由龐大規(guī)模的GPU等硬件消耗能量不顧碳排放的話,也不符合全球當(dāng)下的節(jié)能減排趨勢。而在深度學(xué)習(xí)中,各種精度的加法乘法都會消耗能量,但這些運(yùn)算消耗的能量與傳統(tǒng)馮諾依曼結(jié)構(gòu)中數(shù)據(jù)移動消耗的能量相比,就顯得微不足道了,尤其是從DRAM中讀寫高精度數(shù)值時,能耗差距甚至可以達(dá)到數(shù)十倍以上。
這還只是在數(shù)據(jù)中心場景中,如果我們放到邊緣來看,如今的移動設(shè)備需要語音識別、圖像識別之類的各種深度學(xué)習(xí)應(yīng)用。所以提升這類設(shè)備的效率,才有可能在功耗和內(nèi)存都有所限制的嵌入式應(yīng)用中普及深度學(xué)習(xí)。
存內(nèi)計(jì)算的存儲選擇
為了減少數(shù)據(jù)移動消耗的能量,提高M(jìn)VM的計(jì)算性能,存內(nèi)計(jì)算成了一個不錯的選擇。存內(nèi)計(jì)算(IMC)是一項(xiàng)創(chuàng)新的計(jì)算方式,將特定的計(jì)算任務(wù)放到存儲設(shè)備中,并使用模擬或混合信號的計(jì)算技術(shù)。相較馮諾依曼結(jié)構(gòu)或近存計(jì)算來說,最大程度地減少了數(shù)據(jù)移動。
而早期利用IMC進(jìn)行神經(jīng)網(wǎng)絡(luò)推理的測試結(jié)果證明,在軟硬件結(jié)合的情況下,可以得到優(yōu)秀的精度結(jié)果,而DAC、ADC、功能激活之類的數(shù)字操作則是通過片外的軟件或硬件來實(shí)現(xiàn)的。自那之后,各種使用SRAM、NOR Flash、RRAM、PCM和MRAM的單核或多核存內(nèi)計(jì)算芯片紛紛面世。
在對于正確存儲類型的選擇上,存內(nèi)計(jì)算必須面臨取舍的問題,比如性能、密度、寫入時間、寫入功耗、穩(wěn)定性以及制造工藝上。性能自然就是直接影響到我們說的TOPS算力以及效率,目前SRAM優(yōu)勢較大,密度則決定了裸片大小,同時也影響到了成本。
而在邊緣場景下,環(huán)境一致性往往不比數(shù)據(jù)中心,所以如果不能保證穩(wěn)定性的話,就會影響到存內(nèi)計(jì)算進(jìn)行深度學(xué)習(xí)的精度。最后的制造工藝不僅決定了這類存內(nèi)計(jì)算芯片能否量產(chǎn),是否存在供應(yīng)鏈危機(jī)或成本問題,也決定了它有沒有繼續(xù)推進(jìn)的空間,比如目前工藝較為先進(jìn)的主要是PCM和SRAM,最高分別已經(jīng)到了14nm和12nm。
在2021年的VLSI技術(shù)大會上,IBM發(fā)表了一篇文章,講述了他們以14nm CMOS工藝打造的一個64核PCM模擬存內(nèi)計(jì)算芯片,HERMES。該芯片采用了后端集成的多層相變化內(nèi)存,由256個線性化的CCO ADC組成,可以在1GHz的工作頻率之上進(jìn)行精確的片上矩陣矢量乘法運(yùn)算。在深度學(xué)習(xí)的運(yùn)算測試中,HERMES獲得了10.5 TOPS/W的運(yùn)算效率以及1.59TOPS/mm2的性能密度。
Thetis Core芯片 / Axelera AI
而荷蘭初創(chuàng)企業(yè)Axelera AI則選了數(shù)字SRAM這一路線,他們在去年12月成功流片第一代IMC芯片Thetis Core。Thetis Core的面積不到9mm2,卻可以在INT8精度下提供39.3TOPS的算力和14.1 TOPS/W的性能,甚至還可以超頻到48.16TOPS。但不少存內(nèi)計(jì)算芯片提到性能表現(xiàn)時,往往都是指滿載的情況,正因如此,Thetis Core在低利用率下的效率表現(xiàn)才顯得無比亮眼。哪怕從100%利用率降低至25%的,該芯片也能展現(xiàn)13TOPS/W的效率,降幅只有7%左右。
小結(jié)
除了“存”以外,存內(nèi)計(jì)算在“算”上的選擇也不盡相同,比如進(jìn)行模擬或數(shù)字MAC運(yùn)算等等。從斯坦福大學(xué)教授Boris Murmann提出的觀點(diǎn)來看,在低精度下模擬運(yùn)算要比數(shù)字運(yùn)算更高效,但一旦精度拔高,比如8位以后,模擬計(jì)算的功耗就會成倍增加了??紤]到落地應(yīng)用較少,未來的存內(nèi)計(jì)算會更傾向于哪種形式仍有待觀察,但從存儲廠商、存算一體芯片廠商的動向來看,這或許是存儲市場迎來又一輪爆發(fā)的絕佳機(jī)遇。
但正因我們提過多次的算力問題,對于大型AI訓(xùn)練的計(jì)算要求已經(jīng)在每兩個月翻倍了,別說可持續(xù)能源供應(yīng)了,就連硬件的可持續(xù)都有些陷入停滯了。其實(shí)以目前各種模型的迭代速度來看,更高的運(yùn)算效率才是重中之重,畢竟這些模型并不需要每兩個月就推陳出新。
深度學(xué)習(xí)還有哪些環(huán)節(jié)可以提升效率
我們先從深度學(xué)習(xí)運(yùn)算來看哪些算數(shù)運(yùn)算占比最高,根據(jù)IBM給出的統(tǒng)計(jì)數(shù)據(jù),無論是語音識別的RNN、語言模型DNN和視覺模型CNN,矩陣向量乘法都占據(jù)了運(yùn)算總數(shù)的70%到90%,所以打造一個矩陣矢量乘法加速器,是多數(shù)AI加速器的思路。
數(shù)據(jù)傳輸和運(yùn)算的功耗對比 / ISSCC
要考慮效率,我們就不能不談到功耗的問題,如果只顧算力而不考慮功耗,任由龐大規(guī)模的GPU等硬件消耗能量不顧碳排放的話,也不符合全球當(dāng)下的節(jié)能減排趨勢。而在深度學(xué)習(xí)中,各種精度的加法乘法都會消耗能量,但這些運(yùn)算消耗的能量與傳統(tǒng)馮諾依曼結(jié)構(gòu)中數(shù)據(jù)移動消耗的能量相比,就顯得微不足道了,尤其是從DRAM中讀寫高精度數(shù)值時,能耗差距甚至可以達(dá)到數(shù)十倍以上。
這還只是在數(shù)據(jù)中心場景中,如果我們放到邊緣來看,如今的移動設(shè)備需要語音識別、圖像識別之類的各種深度學(xué)習(xí)應(yīng)用。所以提升這類設(shè)備的效率,才有可能在功耗和內(nèi)存都有所限制的嵌入式應(yīng)用中普及深度學(xué)習(xí)。
存內(nèi)計(jì)算的存儲選擇
為了減少數(shù)據(jù)移動消耗的能量,提高M(jìn)VM的計(jì)算性能,存內(nèi)計(jì)算成了一個不錯的選擇。存內(nèi)計(jì)算(IMC)是一項(xiàng)創(chuàng)新的計(jì)算方式,將特定的計(jì)算任務(wù)放到存儲設(shè)備中,并使用模擬或混合信號的計(jì)算技術(shù)。相較馮諾依曼結(jié)構(gòu)或近存計(jì)算來說,最大程度地減少了數(shù)據(jù)移動。
而早期利用IMC進(jìn)行神經(jīng)網(wǎng)絡(luò)推理的測試結(jié)果證明,在軟硬件結(jié)合的情況下,可以得到優(yōu)秀的精度結(jié)果,而DAC、ADC、功能激活之類的數(shù)字操作則是通過片外的軟件或硬件來實(shí)現(xiàn)的。自那之后,各種使用SRAM、NOR Flash、RRAM、PCM和MRAM的單核或多核存內(nèi)計(jì)算芯片紛紛面世。
在對于正確存儲類型的選擇上,存內(nèi)計(jì)算必須面臨取舍的問題,比如性能、密度、寫入時間、寫入功耗、穩(wěn)定性以及制造工藝上。性能自然就是直接影響到我們說的TOPS算力以及效率,目前SRAM優(yōu)勢較大,密度則決定了裸片大小,同時也影響到了成本。
而在邊緣場景下,環(huán)境一致性往往不比數(shù)據(jù)中心,所以如果不能保證穩(wěn)定性的話,就會影響到存內(nèi)計(jì)算進(jìn)行深度學(xué)習(xí)的精度。最后的制造工藝不僅決定了這類存內(nèi)計(jì)算芯片能否量產(chǎn),是否存在供應(yīng)鏈危機(jī)或成本問題,也決定了它有沒有繼續(xù)推進(jìn)的空間,比如目前工藝較為先進(jìn)的主要是PCM和SRAM,最高分別已經(jīng)到了14nm和12nm。
在2021年的VLSI技術(shù)大會上,IBM發(fā)表了一篇文章,講述了他們以14nm CMOS工藝打造的一個64核PCM模擬存內(nèi)計(jì)算芯片,HERMES。該芯片采用了后端集成的多層相變化內(nèi)存,由256個線性化的CCO ADC組成,可以在1GHz的工作頻率之上進(jìn)行精確的片上矩陣矢量乘法運(yùn)算。在深度學(xué)習(xí)的運(yùn)算測試中,HERMES獲得了10.5 TOPS/W的運(yùn)算效率以及1.59TOPS/mm2的性能密度。
Thetis Core芯片 / Axelera AI
而荷蘭初創(chuàng)企業(yè)Axelera AI則選了數(shù)字SRAM這一路線,他們在去年12月成功流片第一代IMC芯片Thetis Core。Thetis Core的面積不到9mm2,卻可以在INT8精度下提供39.3TOPS的算力和14.1 TOPS/W的性能,甚至還可以超頻到48.16TOPS。但不少存內(nèi)計(jì)算芯片提到性能表現(xiàn)時,往往都是指滿載的情況,正因如此,Thetis Core在低利用率下的效率表現(xiàn)才顯得無比亮眼。哪怕從100%利用率降低至25%的,該芯片也能展現(xiàn)13TOPS/W的效率,降幅只有7%左右。
小結(jié)
除了“存”以外,存內(nèi)計(jì)算在“算”上的選擇也不盡相同,比如進(jìn)行模擬或數(shù)字MAC運(yùn)算等等。從斯坦福大學(xué)教授Boris Murmann提出的觀點(diǎn)來看,在低精度下模擬運(yùn)算要比數(shù)字運(yùn)算更高效,但一旦精度拔高,比如8位以后,模擬計(jì)算的功耗就會成倍增加了??紤]到落地應(yīng)用較少,未來的存內(nèi)計(jì)算會更傾向于哪種形式仍有待觀察,但從存儲廠商、存算一體芯片廠商的動向來看,這或許是存儲市場迎來又一輪爆發(fā)的絕佳機(jī)遇。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報(bào)投訴
-
存內(nèi)計(jì)算
+關(guān)注
關(guān)注
0文章
30瀏覽量
1396
發(fā)布評論請先 登錄
相關(guān)推薦
知存科技啟動首屆存內(nèi)計(jì)算創(chuàng)新大賽
存內(nèi)計(jì)算作為一項(xiàng)打破“內(nèi)存墻”“功耗墻”的顛覆性技術(shù),消除了存與算的界限,相比CPU或GPU能夠?qū)崿F(xiàn)更高計(jì)算并行度、更大專用算力,達(dá)成數(shù)量級
d鎖存器解決了sr鎖存器的什么問題
D鎖存器(Data Latch)和SR鎖存器(Set-Reset Latch)是數(shù)字電路中常見的兩種存儲元件。它們在數(shù)字系統(tǒng)中扮演著重要的角色,用于存儲和傳遞信息。然而,這兩種鎖存器在設(shè)計(jì)和應(yīng)用上
知存科技推動新一代存內(nèi)計(jì)算芯片產(chǎn)品產(chǎn)業(yè)化進(jìn)程
? 6月3日,知存科技總部啟航儀式在杭州臨平算力小鎮(zhèn)正式舉行,標(biāo)志著公司在存內(nèi)計(jì)算芯片領(lǐng)域開啟技術(shù)研發(fā)、人才戰(zhàn)略、產(chǎn)業(yè)升級的新征程。臨平區(qū)委書記陳如根,區(qū)委常委、組織部長楊霞,區(qū)委常委
存內(nèi)計(jì)算原理分類——數(shù)字存內(nèi)計(jì)算與模擬存內(nèi)計(jì)算
數(shù)字存內(nèi)計(jì)算與模擬存內(nèi)計(jì)算各有優(yōu)劣,都是存算一體發(fā)展
存內(nèi)計(jì)算——助力實(shí)現(xiàn)28nm等效7nm功效
當(dāng)?shù)男阅堋?b class='flag-5'>存算一體嘗試通過集成存儲和計(jì)算在一個芯片甚至一個容器內(nèi),來突破訪存限制,發(fā)揮芯片的最大算力。下面我們將重點(diǎn)介紹存算一體技術(shù)。
論基于電壓域的SRAM存內(nèi)計(jì)算技術(shù)的嶄新前景
這篇文章總結(jié)了馮·諾伊曼架構(gòu)及其在處理數(shù)據(jù)密集型應(yīng)用中所面臨的性能和能耗問題。為了應(yīng)對這一挑戰(zhàn),文章介紹了存內(nèi)計(jì)算技術(shù),其中重點(diǎn)討論了基于電壓域的SRAM存
從MRAM的演進(jìn)看存內(nèi)計(jì)算的發(fā)展
我國的存內(nèi)計(jì)算產(chǎn)業(yè)也開始迅猛發(fā)展,知存科技、九天睿芯、智芯科、后摩智能、蘋芯科技等國內(nèi)專注存內(nèi)
淺談存內(nèi)計(jì)算生態(tài)環(huán)境搭建以及軟件開發(fā)
應(yīng)用架構(gòu),提高開發(fā)效率。
此外,在搭建存內(nèi)計(jì)算環(huán)境時,關(guān)鍵的硬件和軟件是不可或缺的。硬件方面,需要足夠的RAM來存儲數(shù)據(jù)集和支持計(jì)算過程。軟件方面,則涉及
發(fā)表于 05-16 16:40
知存科技助力AI應(yīng)用落地:WTMDK2101-ZT1評估板實(shí)地評測與性能揭秘
算一體領(lǐng)域,全球參與者可分為國際巨頭和新興企業(yè)兩大陣營。國際巨頭如英特爾、IBM、特斯拉等早已布局存算技術(shù),并推出代表未來趨勢的產(chǎn)品。而新興企業(yè)則更靈活選擇存內(nèi)
發(fā)表于 05-16 16:38
存內(nèi)計(jì)算WTM2101編譯工具鏈 資料
存內(nèi)計(jì)算是突破物理極限的下一代算力技術(shù)- AIGC等人工智能新興產(chǎn)業(yè)的快速發(fā)展離不開算力,算力的基礎(chǔ)是人工智能芯片。
當(dāng)前CPU/GPU在執(zhí)行計(jì)算密集型任務(wù)時需要將海量參數(shù)(ωij)
發(fā)表于 05-16 16:33
探索存內(nèi)計(jì)算—基于 SRAM 的存內(nèi)計(jì)算與基于 MRAM 的存算一體的探究
本文深入探討了基于SRAM和MRAM的存算一體技術(shù)在計(jì)算領(lǐng)域的應(yīng)用和發(fā)展。首先,介紹了基于SRAM的存內(nèi)邏輯計(jì)算技術(shù),包括其原理、優(yōu)勢以及在
存內(nèi)計(jì)算芯片研究進(jìn)展及應(yīng)用
在NOR Flash存內(nèi)計(jì)算芯片當(dāng)中,向量-矩陣乘法運(yùn)算基于電流/電壓的跨導(dǎo)與基爾霍夫定律進(jìn)行物理實(shí)現(xiàn),如圖7(a)所示。因此,其核心是設(shè)計(jì)NOR Flash單元陣列以滿足大規(guī)模高能效向量-矩陣乘法
存內(nèi)生態(tài)構(gòu)建重要一環(huán)- 存內(nèi)計(jì)算工具鏈
本篇文章重點(diǎn)講述存內(nèi)計(jì)算相關(guān)工具鏈,我們將從工具鏈定義出發(fā),依次講述工具鏈研究背景及現(xiàn)有工具鏈、存內(nèi)計(jì)算
存內(nèi)計(jì)算技術(shù)工具鏈——量化篇
本篇文章將重點(diǎn)講述存內(nèi)計(jì)算技術(shù)工具鏈之“量化”,我們將從面向存內(nèi)計(jì)算芯片的深度學(xué)習(xí)編譯工具鏈、神
淺談存內(nèi)計(jì)算生態(tài)環(huán)境搭建以及軟件開發(fā)
在當(dāng)今數(shù)據(jù)驅(qū)動的商業(yè)世界中,能夠快速處理和分析大量數(shù)據(jù)的能力變得越來越重要。而存內(nèi)計(jì)算開發(fā)環(huán)境在此領(lǐng)域發(fā)揮其關(guān)鍵作用。存內(nèi)
評論