來源:半導(dǎo)體芯科技編譯
隨著摩爾定律的放緩,芯片,尤其是用于人工智能和高性能計(jì)算(HPC)的芯片,逐漸變得炙手可熱。2023 年,隨著英偉達(dá)(Nvidia)GH200 超級(jí)芯片的到來,我們看到加速器的功率進(jìn)入了千瓦級(jí)。
我們?cè)缫阎肋@些芯片會(huì)很熱門--Nvidia 在兩年前就已經(jīng)開始預(yù)告這款 CPU-GPU 芯片。直到最近,我們才知道原始設(shè)備制造商和系統(tǒng)構(gòu)建商將如何應(yīng)對(duì)這種功率密集型部件。大多數(shù)系統(tǒng)會(huì)采用液體冷卻嗎?還是大多數(shù)會(huì)堅(jiān)持使用空氣冷卻?他們會(huì)在一個(gè)盒子里塞進(jìn)多少臺(tái)這樣的加速器,盒子又有多大?
現(xiàn)在,第一批基于 GH200 的系統(tǒng)已經(jīng)投放市場,很明顯,外形尺寸在很大程度上是由功率密度決定的。從根本上說,這取決于散熱的表面積有多大。
深入研究 Supermicro、Gigabyte、QCT、Pegatron、HPE 等公司目前提供的系統(tǒng),您很快就會(huì)注意到一個(gè)趨勢(shì)。每個(gè)機(jī)架單元 (RU) 高達(dá) 500 W – Supermicro 的 MGX ARS-111GL-NHR 為 1 kW – 這些系統(tǒng)主要采用風(fēng)冷。雖然溫度較高,但散熱負(fù)荷仍在可控范圍內(nèi),每個(gè)機(jī)架的功率約為 21-24 kW。這完全在現(xiàn)代數(shù)據(jù)中心的供電和熱管理能力范圍內(nèi),尤其是那些使用后門熱交換器的數(shù)據(jù)中心。
但是,當(dāng)系統(tǒng)制造商開始在每個(gè)機(jī)箱中安裝超過 1 kW的加速器時(shí),情況就會(huì)發(fā)生變化。此時(shí),我們看到的大多數(shù) OEM 系統(tǒng)都改用了直接液冷技術(shù)。例如,Gigabyte的 H263-V11 在一個(gè) 2U 機(jī)箱中最多可容納四個(gè) GH200 節(jié)點(diǎn)。
也就是說,每個(gè)機(jī)架單元的功率為 2 kW。因此,雖然像 Nvidia 的風(fēng)冷 DGX H100 系統(tǒng)(配備 8 個(gè) 700 瓦 H100 和雙藍(lán)寶石 Rapids CPU)的 TDP 較高,為 10.2 千瓦,但其功率密度實(shí)際上較低,為 1.2 kW/RU。
除了能更有效地從這些密集的加速器中傳遞熱量外,液體冷卻還有幾個(gè)優(yōu)點(diǎn)。系統(tǒng)功率越高,從系統(tǒng)中帶走熱量所需的靜壓和氣流就越大。這就意味著要使用更熱、更快的風(fēng)扇,從而消耗更多的功率——在某些情況下可能高達(dá)系統(tǒng)功率的 20%。
當(dāng)每個(gè)機(jī)架單元的功率超過 500 W 時(shí),大多數(shù)原始設(shè)備制造商和原始設(shè)計(jì)制造商似乎都會(huì)選擇液冷機(jī)箱,因?yàn)槔鋮s網(wǎng)卡、存儲(chǔ)和其他外設(shè)等低功耗組件所需的風(fēng)扇數(shù)量更少、速度更慢。
只要看看 HPE 的 Cray EX254n 刀片,就能知道液冷機(jī)箱的作用有多大。該平臺(tái)最多可支持四個(gè) GH200。在 1U 的計(jì)算刀片中就有 4 千瓦,這還不算用于為芯片提供數(shù)據(jù)的網(wǎng)卡。
當(dāng)然,HPE 的 Cray 部門對(duì)超高密度計(jì)算組件的冷卻確實(shí)很有心得。不過,這確實(shí)說明了系統(tǒng)構(gòu)建商在服務(wù)器上花費(fèi)的心思,不僅在系統(tǒng)層面,而且在機(jī)架層面。
機(jī)架級(jí)起飛
正如我們之前在介紹 Nvidia DGX H100 系統(tǒng)時(shí)提到的那樣,為多千瓦服務(wù)器單獨(dú)散熱是原始設(shè)備制造商非常熟悉的事情。但是,一旦要在機(jī)架上安裝這些系統(tǒng),情況就會(huì)變得復(fù)雜起來,機(jī)架電源和設(shè)備冷卻等因素都會(huì)發(fā)揮作用。
在我們的同類出版物《下一代平臺(tái)》(The Next Platform)上,我們深入探討了像 Digital Reality 這樣的數(shù)據(jù)中心運(yùn)營商為支持此類系統(tǒng)的密集部署而必須克服的挑戰(zhàn)。
在許多情況下,主機(jī)托管服務(wù)提供商需要重新設(shè)計(jì)其電源和冷卻基礎(chǔ)設(shè)施,以支持在單個(gè)機(jī)架中安裝四個(gè) DGX H100 系統(tǒng)所需的 40 多千瓦的功率和熱量。
但是,如果您的數(shù)據(jù)中心或主機(jī)托管服務(wù)提供商無法提供這種功率的機(jī)架,也無法承受這種熱量,那么在大部分機(jī)架都將空置的情況下,將這些系統(tǒng)的密度提高到這種程度就沒有多大意義了。
隨著 GH200 的推出,我們看到 Nvidia 不再關(guān)注單個(gè)系統(tǒng),而是更加關(guān)注機(jī)架規(guī)模的部署。在今年春季的 Computex 上,我們首次看到了 DGX GH200 集群。
該系統(tǒng)實(shí)際上由 256 個(gè) 2U 節(jié)點(diǎn)組成,每個(gè)節(jié)點(diǎn)都裝有一個(gè) GH200 加速器,而不是一堆密集的 GPU 節(jié)點(diǎn)。組合起來,該系統(tǒng)能夠提供高達(dá) exaFLOPS 的 FP8 性能,但在設(shè)施層面的部署要容易得多?,F(xiàn)在的功耗不再是 1.2 kW/RU,而是接近 500 W/RU,這與大多數(shù)原始設(shè)備制造商使用自己的風(fēng)冷系統(tǒng)時(shí)的情況差不多。
最近,我們看到 Nvidia 在今年秋季的 Re:Invent 大會(huì)上與 AWS 合作發(fā)布了 GH200-NVL32,將其縮小到單個(gè)機(jī)架。
該系統(tǒng)在一個(gè)機(jī)架上安裝了 16 個(gè) 1U 機(jī)箱,每個(gè)機(jī)箱配備兩個(gè) GH200 節(jié)點(diǎn),并使用九個(gè) NVLink 交換機(jī)托盤將它們連接在一起。不用說,這些計(jì)算能力為 2 千瓦/RU 的小系統(tǒng)密度很高,因此從一開始就被設(shè)計(jì)為液冷系統(tǒng)。
更熱的芯片即將上市
雖然我們一直在關(guān)注 Nvidia 的 Grace Hopper 超級(jí)芯片,但這家芯片制造商并不是唯一一家為追求性能和效率而將 TDP 推向新極限的廠商。
本月早些時(shí)候,AMD 公布了其最新的 AI 和 HPC GPU 和 APU,該公司的 Instinct 加速器的功耗從上一代的 560 W 躍升至 760 W。
更重要的是,AMD 首席技術(shù)官馬克-帕普馬斯特(Mark Papermaster)告訴《The Register》,未來幾年仍有足夠的空間將 TDP 推得更高。
至于這是否會(huì)最終促使芯片制造商強(qiáng)制要求其旗艦產(chǎn)品采用液冷技術(shù),目前還沒有答案。據(jù) Papermaster 稱,AMD 將在其平臺(tái)上支持空氣和液體冷卻。但正如我們?cè)?AMD 新的 MI300A APU 上看到的那樣,繼續(xù)選擇風(fēng)冷幾乎肯定意味著性能上的讓步。
MI300A的額定功率為550瓦,遠(yuǎn)遠(yuǎn)低于我們所認(rèn)為的850瓦,但如果有足夠的冷卻,它的運(yùn)行溫度會(huì)更高。在HPC調(diào)整系統(tǒng)中,如HPE、Eviden(Atos)或聯(lián)想開發(fā)的系統(tǒng),芯片可以配置為760 W。
與此同時(shí),英特爾正在探索使用兩相冷卻劑和珊瑚啟發(fā)設(shè)計(jì)的散熱片來冷卻 2 千瓦芯片的新方法,以促進(jìn)氣泡的形成。
這家芯片制造商還宣布與基礎(chǔ)設(shè)施和化學(xué)品供應(yīng)商建立廣泛的合作關(guān)系,以擴(kuò)大液體冷卻技術(shù)的使用范圍。該公司最新的合作旨在利用 Vertiv 的泵送兩相冷卻技術(shù)為英特爾即將推出的 Guadi3 AI 加速器開發(fā)冷卻解決方案。?
審核編輯 黃宇
-
芯片
+關(guān)注
關(guān)注
456文章
50889瀏覽量
424237 -
amd
+關(guān)注
關(guān)注
25文章
5470瀏覽量
134239 -
AI
+關(guān)注
關(guān)注
87文章
30998瀏覽量
269304
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論