HBM4將是未來市場上最先進的存儲器。
HBM技術是一種基于3D堆疊工藝的高性能DRAM,它可以為高性能計算、人工智能、數(shù)據(jù)中心等領域提供高帶寬、高容量、低延遲和低功耗的存儲解決方案。本文將介紹HBM技術的原理、優(yōu)勢、應用和發(fā)展趨勢。
01.?HBM技術原理: 3D堆疊實現(xiàn)高密度存儲
HBM技術是一種將多層DRAM芯片通過硅通孔(TSV)和微型凸點(uBump)連接在一起,形成一個存儲堆棧(stack),然后將多個堆棧與邏輯芯片(如GPU或CPU)通過硅中介層(interposer)封裝在一起的技術。HBM技術的原理示意圖如下:
HBM技術的核心優(yōu)勢是通過3D堆疊實現(xiàn)了高密度存儲,從而大幅提升了每個存儲堆棧的容量和位寬。例如,第一代HBM(HBM1)可以將四層8Gb(吉比特)的DRAM芯片堆疊在一起,形成一個32Gb(吉比特)的存儲堆棧,每個堆棧有1024位的接口,最多可以支持四個堆棧,從而實現(xiàn)128Gb(吉比特)的總容量和4096位的總位寬。
相比之下,傳統(tǒng)的DDR4內存只有64位的接口,每個芯片最大容量為16Gb(吉比特),最多只能支持兩個芯片,從而實現(xiàn)32Gb(吉比特)的總容量和128位的總位寬。
02.?HBM技術優(yōu)勢: 高帶寬、低延遲、低功耗
HBM技術通過3D堆疊實現(xiàn)了高密度存儲,從而帶來了三大優(yōu)勢:高帶寬、低延遲和低功耗。
高帶寬:HBM技術通過增加存儲堆棧的數(shù)量和位寬,以及提升數(shù)據(jù)傳輸速率,實現(xiàn)了超高的帶寬。例如,第三代HBM(HBM3)可以支持八個存儲堆棧,每個堆棧有2048位的接口,數(shù)據(jù)傳輸速率可達9.6Gbps(吉比特每秒),從而實現(xiàn)1.2TB/s(太字節(jié)每秒)的總帶寬。相比之下,傳統(tǒng)的DDR4內存最多只能支持64GB/s(吉字節(jié)每秒)的總帶寬。
低延遲:HBM技術通過縮短存儲器和邏輯芯片之間的距離,以及采用并行訪問模式,實現(xiàn)了低延遲。例如,第三代HBM(HBM3)可以將存儲器和邏輯芯片之間的距離縮短到約100微米(微米),并且可以同時訪問16個獨立通道,從而降低了訪問延遲。相比之下,傳統(tǒng)的DDR4內存需要通過長達數(shù)厘米(厘米)的電路板連接存儲器和邏輯芯片,并且只能順序訪問一個通道,從而增加了訪問延遲。
低功耗:HBM技術通過降低工作電壓,以及減少信號線的數(shù)量和長度,實現(xiàn)了低功耗。例如,第三代HBM(HBM3)可以將工作電壓降低到0.7伏(伏特),并且只需要約5000根信號線,從而降低了功耗4。相比之下,傳統(tǒng)的DDR4內存需要1.2伏(伏特)的工作電壓,并且需要約20000根信號線,從而增加了功耗。
綜上所述,HBM技術通過3D堆疊實現(xiàn)了高密度存儲,從而帶來了高帶寬、低延遲和低功耗的優(yōu)勢,這些優(yōu)勢使得HBM技術非常適合高性能計算、人工智能、數(shù)據(jù)中心等領域的應用。
03.?HBM技術應用: 助力高性能計算、人工智能、數(shù)據(jù)中心
HBM技術由于具備高帶寬、低延遲和低功耗的優(yōu)勢,因此被廣泛應用于高性能計算、人工智能、數(shù)據(jù)中心等領域,為這些領域提供了強大的存儲支持。
高性能計算:高性能計算是指使用大規(guī)模并行處理的超級計算機或集群系統(tǒng)來解決復雜的科學和工程問題。高性能計算對存儲器的要求非常高,需要大容量、高帶寬和低延遲的存儲器來支持大量的數(shù)據(jù)處理和傳輸。HBM技術正好滿足了這些要求,因此被廣泛應用于高性能計算領域。例如,英偉達(NVIDIA)的 H100 / H800 和 AMD 的 MI300 系列 AI 加速卡均采用 HBM3 技術,為高性能計算提供了強大的存儲支持。
人工智能:人工智能是指使用計算機系統(tǒng)模擬人類智能的科學和技術。人工智能對存儲器的要求也非常高,需要高帶寬和低延遲的存儲器來支持大規(guī)模的神經(jīng)網(wǎng)絡訓練和推理。HBM技術也正好滿足了這些要求,因此被廣泛應用于人工智能領域。例如,谷歌(Google)的 TPU v4 和 TPU v5 系列 AI 芯片均采用 HBM2E 技術,為人工智能提供了強大的存儲支持。
數(shù)據(jù)中心:數(shù)據(jù)中心是指集中存儲、處理和傳輸大量數(shù)據(jù)的設施。數(shù)據(jù)中心對存儲器的要求也非常高,需要高容量、高帶寬和低功耗的存儲器來支持海量的數(shù)據(jù)服務。HBM技術也正好滿足了這些要求,因此被廣泛應用于數(shù)據(jù)中心領域。例如,英特爾(Intel)的 Sapphire Rapids 和 Granite Rapids 系列服務器處理器均采用 HBM2E 技術,為數(shù)據(jù)中心提供了強大的存儲支持。
綜上所述,HBM技術由于具備高帶寬、低延遲和低功耗的優(yōu)勢,因此被廣泛應用于高性能計算、人工智能、數(shù)據(jù)中心等領域,為這些領域提供了強大的存儲支持。
04.?HBM技術發(fā)展趨勢: 存儲巨頭競相推出下一代HBM
HBM技術由于具備高帶寬、低延遲和低功耗的優(yōu)勢,因此受到了存儲巨頭的高度重視,目前已經(jīng)有多家存儲巨頭正在計劃推出下一代HBM,以進一步提升HBM技術的性能和市場競爭力。
SK 海力士(SK Hynix):SK 海力士是韓國最大的存儲芯片制造商,也是全球第二大的DRAM供應商。SK 海力士在2023年3月宣布,已經(jīng)開始量產(chǎn)第三代HBM(HBM3),并且已經(jīng)向英偉達(NVIDIA)和AMD等客戶提供了樣品。SK 海力士的HBM3可以支持8個存儲堆棧,每個堆棧有2048位的接口,數(shù)據(jù)傳輸速率可達9.6Gbps(吉比特每秒),從而實現(xiàn)1.2TB/s(太字節(jié)每秒)的總帶寬。SK 海力士表示,HBM3是目前市場上最高性能的存儲器,可以滿足高性能計算、人工智能、數(shù)據(jù)中心等領域的需求。
三星(Samsung):三星是全球最大的存儲芯片制造商,也是全球第一大的DRAM供應商。三星在2023年4月宣布,已經(jīng)開始量產(chǎn)第二代高性能HBM(HBM2E),并且已經(jīng)向谷歌(Google)和英特爾(Intel)等客戶提供了樣品。三星的HBM2E可以支持8個存儲堆棧,每個堆棧有1024位的接口,數(shù)據(jù)傳輸速率可達4.8Gbps(吉比特每秒),從而實現(xiàn)614.4GB/s(吉字節(jié)每秒)的總帶寬。三星表示,HBM2E是目前市場上最高容量的存儲器,可以滿足海量數(shù)據(jù)處理和存儲的需求。
美光(Micron):美光是全球第三大的存儲芯片制造商,也是全球第四大的DRAM供應商。美光在2023年5月宣布,已經(jīng)開始研發(fā)第四代HBM(HBM4),并且計劃在2024年下半年開始量產(chǎn)。美光的HBM4可以支持16個存儲堆棧,每個堆棧有4096位的接口,數(shù)據(jù)傳輸速率可達12Gbps(吉比特每秒),從而實現(xiàn)3TB/s(太字節(jié)每秒)的總帶寬。美光表示,HBM4將是未來市場上最先進的存儲器,可以滿足超高性能計算、人工智能、數(shù)據(jù)中心等領域的需求。
綜上所述,HBM技術由于具備高帶寬、低延遲和低功耗的優(yōu)勢,因此受到了存儲巨頭的高度重視,目前已經(jīng)有多家存儲巨頭正在計劃推出下一代HBM,以進一步提升HBM技術的性能和市場競爭力。據(jù)集邦咨詢預測,2023年HBM需求將同比增長58%,2024年可能進一步增長約30%,未來這個市場規(guī)模將達到數(shù)十億美元。HBM技術無疑將成為高性能計算的新引擎,引領存儲技術的新變革。
編輯:黃飛
?
評論
查看更多