進入AIGC時代,智算中心規(guī)模日漸龐大,服務器能耗與日俱增。如何降低智算中心能耗已成為國家和地方政府關注的焦點。
工信部數據顯示,2022年全國數據中心總耗電量約2700億千瓦時。當前,大部分數據中心仍主要采用風冷散熱技術,在單柜密度、PUE值方面已愈發(fā)難以滿足行業(yè)發(fā)展及綠色節(jié)能方面的要求,而冷板式液冷方案則為現有數據中心節(jié)能改造提供了諸多便利。
近日,國產CPU領軍企業(yè)飛騰信息技術有限公司正式發(fā)布飛騰騰云S5000C服務器液冷解決方案,并在第十二屆中國電子信息博覽會上榮獲創(chuàng)新金獎。
液冷釋放芯片極致性能
目前,常規(guī)風冷僅支持8-10kW的單柜密度,若繼續(xù)采用風冷散熱,將導致行間空調需求數量陡增,算力成本也將急劇增加,因此高密度散熱場景下液冷方案成本和性能優(yōu)勢顯著。本次飛騰聯合同泰怡針對S5000C服務器液冷解決方案進行測試,結果表明基于本次液冷解決方案打造的下一代高性能液冷服務器,如果應用在30KW風液式CDU液冷機柜中,單機柜可配置25臺1U雙路液冷服務器,相對風冷機柜理論上可提升297.6%。
30KW 風液式液冷機柜
測試結果還表明, S5000C高主頻芯片可以在液冷系統(tǒng)的加持下穩(wěn)定可靠運行,主頻相對標準版芯片提高20%。
液冷實現算力綠色節(jié)能
中國信息通信研究院測算,到2030年我國數據中心耗電量將達到5900億千瓦時。工信部等部門在2021年12月提出加快綠色數據中心建設,到2025年全國新建大型、超大型數據中心電能利用效率(PUE)降到1.3以下。
相較于傳統(tǒng)風冷,液冷方案采用液態(tài)介質作為熱傳遞介質,熱傳導效率比空氣大大提高,可以更有效地移除計算機組件中的熱量,從而降低能耗。本次測試結果表明,液冷系統(tǒng)的整體能耗相較風冷可降低約10%左右,同時滿足國家要求的PUE值,從而降低空調機房以及機柜的電力成本,具有較好的經濟適用性。
飛騰騰云S5000C液冷機柜以及服務器結構圖
此外,本次飛騰推出的液冷解決方案基于四臺雙路服務器進行系統(tǒng)功耗測試,進液溫度在40℃以上, S5000C結溫控制在65℃以內,CPU的結溫溫度波動在±1℃以內,使得服務器系統(tǒng)的核心部件在一個較低且穩(wěn)定的溫度下運行,大大提高了系統(tǒng)的可靠性以及核心部件的使用壽命。整個液冷系統(tǒng)熱阻低,散熱能力顯著加強。
為了最大限度降低漏液帶來的風險,本次飛騰液冷解決方案還采用了一套漏液感知與干預系統(tǒng)。通過漏液檢測接口直接檢測漏液,在第一時間通過BMC發(fā)送警報。在本次測試中,飛騰針對主板的LEAKAGE 4pin 漏液檢測接口進行了測試,目前該接口已通過漏液檢測設備識別檢測與移除告警以及模擬漏液故障報警等測試。
隨著AI技術的飛速發(fā)展,液冷技術特別是冷板式液冷正獲得越來越多數據中心的青睞。由于冷板式液冷的硬盤、光模塊等服務器部件以及運維模式和機房承重與傳統(tǒng)風冷場景基本一致,因此不需要對現有風冷機房和機柜進行大規(guī)模改造,升級成本也相對較低。飛騰本次發(fā)布的飛騰騰云S5000C服務器液冷解決方案不僅能夠顯著提升數據中心的能效和散熱性能,還能夠降低噪音和運營成本,這對于追求高效率和可持續(xù)運營的數據中心來說至關重要。
審核編輯 黃宇
-
cpu
+關注
關注
68文章
10870瀏覽量
211899 -
服務器
+關注
關注
12文章
9184瀏覽量
85489 -
AI算力
+關注
關注
0文章
72瀏覽量
8693
發(fā)布評論請先 登錄
相關推薦
評論