0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

ETH-X超節(jié)點:開辟AI算力約束突破的新路徑

SDNLAB ? 來源:SDNLAB ? 2024-11-09 10:03 ? 次閱讀

面對人工智能大模型的迅速發(fā)展及其對算力資源的急劇增長需求,單芯片性能提升遭遇瓶頸,同時通過Scale Out策略擴展多機集群以增加算力也遇到了局限性。在此背景下,中國信通院與騰訊攜手GPUCPU、交換機芯片制造商、服務器供應商、網絡設備廠商及互聯(lián)網企業(yè)等多方力量,共同發(fā)起超大帶寬ETH-X(以太網)超節(jié)點計劃,旨在通過技術創(chuàng)新與行業(yè)合作,構建開放可擴展的HBD(高帶寬域)超節(jié)點系統(tǒng)樣機,探索AI算力提升新途徑,為構建ETH-X超節(jié)點互聯(lián)開放協(xié)作產業(yè)生態(tài)提供支撐。同時,將共同編制相關技術規(guī)范,為行業(yè)樹立標準,引導超節(jié)點技術高質發(fā)展。

AI大模型發(fā)展與算力需求

AI大模型的發(fā)展依賴于持續(xù)提升算力。根據Scaling Law(規(guī)模定理),增大模型規(guī)模與增加訓練數據量是直接提升AI大模型智能水平與性能的關鍵途徑。但對集群算力需求的將呈指數級增長。

長序列是AI大模型發(fā)展的另一個重要方向。長序列提高AI大模型回答問題的質量、處理復雜任務的能力以及更強的記憶力和個性化能力的同時,也會加大對訓練和推理算力資源的需求1,尤其是對顯存資源的需求。因此滿足AI大模型發(fā)展需求,算力能力的持續(xù)提升成為一個重要基礎。

f5b523e4-903e-11ef-a511-92fbcf53809c.png

f5d925fa-903e-11ef-a511-92fbcf53809c.png

圖1 長序列帶來的準確率收益以及顯存需求

單芯片算力提升遇阻、

scale out集群算力提升受限

當前,提升集群算力已面臨一些明顯的制約因素。首先,單芯片性能提升受到HBM容量帶寬增長趕不上算力增長速度的限制,內存墻問題制約算法發(fā)揮。如在典型模型與并行方式下,Nvidia Hopper一代芯片的有效算力(HFU)明顯低于Ampere一代芯片,如圖2所示。另一種通過Scale out擴展集群規(guī)模提升整體算力的方式也受到GBS(Global Batch Size)不能無限增長的限制,導致在集群規(guī)模增大到一定程度后,HFU出現(xiàn)明顯下降。最后,模型參數量增大需要更大的模型并行規(guī)模,模型并行中Tensor并行或MOE類型的Expert并行都會在GPU之間產生大量的通信,并且這部分通信很難與計算進行overlap。而當前典型一機八卡服務器限制了Tensor并行的規(guī)模或Expert并行通過機間網絡,這都會導致HFU無法提高。

f60dbb1c-903e-11ef-a511-92fbcf53809c.png

圖2 不同型號GPU以及不同規(guī)模集群對HFU的影響

通過scale up擴大HBD(超帶寬域)的超節(jié)點成為突破方向

HBD(High Bandwidth Domain)是一組以超帶寬(HB)互聯(lián)GPU-GPU的系統(tǒng)2。HBD內GPU-GPU通信帶寬是HBD之間GPU-GPU通信帶寬的數倍。如Nvidia H100 提供900GBps HB帶寬,HBD間GPU-GPU通信帶寬只有100GBps。因此在模型并行中將數據量大、無法overlap的部分限制在一個HBD內完成。

當前,HBD限制在一臺服務器內,典型1機8卡服務器是8張GPU卡之間通過某種HB連接技術實現(xiàn)互聯(lián),構成一個HBD=8的系統(tǒng)。然而更大的參數規(guī)模、更長的序列長度、更多的MOE專家數量、更大的集群規(guī)模,都造成了更多的通信數據量。HBD=8的情況下,大量的數據通信均需經過HBD間的scale out網絡,因此通信占比提高、HFU下降的問題凸顯。

通過構建更大的HBD系統(tǒng),以scale up方式提升系統(tǒng)算力是解決上述問題的有效途徑之一。如MIT與Meta的研究論文中,通過建模分析3,論證了擴大HBD對訓練性能的提升效果。另外,Nvidia也實現(xiàn)了不同規(guī)模HBD系統(tǒng)并進行了部署與驗證4。

f633b646-903e-11ef-a511-92fbcf53809c.png

f65e4974-903e-11ef-a511-92fbcf53809c.png

圖3 HBD超節(jié)點典型代表與業(yè)務收益舉例

Nvidia將HB互聯(lián)不僅用于GPU-GPU之間,而是將其應用到GPU-CPU/Memory的超大帶寬互聯(lián),例如GH200、GB200產品。通過此方式為GPU提供一個超帶寬訪問CPU/Memory的能力。

Nvidia產品具備支持GPU-CPU/Memory的統(tǒng)一內存編制以及GPU通過內存語義接口read/write直接訪問CPU/Memory的能力,具有更高效、更直接的特點。但其同步操作的方式會對時延進行限制,制約可訪問CPU/Memory的距離與容量。另外,目前的軟件生態(tài)中,未有支持直接通過內存語義訪問CPU/Memory的系統(tǒng)。

相反若使用異步的memory offload方式將降低對時延的約束,并發(fā)利用多節(jié)點CPU/Memory,發(fā)揮HB互聯(lián)的帶寬優(yōu)勢。另外,當前memory offload已具備一定軟件生態(tài)上的基礎,例如Zero offload5。

綜上所述,超節(jié)點是一個以超大帶寬(HB)互聯(lián)16卡以上GPU-GPU以及GPU-CPU/Memory的scale up系統(tǒng),以HBD超節(jié)點為單位,通過傳統(tǒng)scale out擴展方式可形成更大規(guī)模、更高效的算力集群。超節(jié)點Scale Up的核心需求是超大帶寬(HB),但規(guī)模不需要很大。Scale Out的核心需求是超大規(guī)模。因此Scale Up網絡與Scale Out網絡更適合是相互獨立共存的兩張網絡。

f6866990-903e-11ef-a511-92fbcf53809c.png

圖4 Scale Up超大帶寬與Scale Out超大規(guī)模共同構建高算力AI集群

ODCC ETH-X計劃構建開放超節(jié)點產業(yè)生態(tài)

超節(jié)點的核心是HB互聯(lián)技術,當前工業(yè)界已實現(xiàn)的超節(jié)點系統(tǒng)均是采用私有技術與協(xié)議實現(xiàn)HB互聯(lián),例如Nvidia的NVLINK。但此類私有技術與協(xié)議由單一企業(yè)進行維護,無法保證技術長期、高效的發(fā)展。另外,從HBD超節(jié)點產品完善角度也無法保證系統(tǒng)的開放,導致無法形成良性、開放的產業(yè)生態(tài)。

以太網技術憑借開放的生態(tài)、多樣的產業(yè)鏈環(huán)境,為技術的長期演進發(fā)展提供支撐。當前以太網技術上從端口帶寬及交換容量方面已具有較強的競爭基礎。如以太網單端口800G MAC標準已成熟并產業(yè)化,以太網單芯片51.2T交換容量 ETH-switch也已在2023年產品化商用。

目前,以太網HB接口GPU產品的日益豐富,HBD超節(jié)點系統(tǒng)正逐步依托于以太網互聯(lián)技術,實現(xiàn)向更為模塊化、多元化的結構轉型,有效促進了多方廠商的積極參與,各廠商專精于系統(tǒng)內的不同組件或子系統(tǒng)開發(fā),顯著提升了HBD超節(jié)點產品化的多樣性和方案的豐富度,為HBD超節(jié)點技術長期演進奠定穩(wěn)固基石,確保其在應對未來挑戰(zhàn)時能夠持續(xù)進化,保持領先的技術競爭力與生態(tài)活力。

f6c070b8-903e-11ef-a511-92fbcf53809c.png

f6f73b34-903e-11ef-a511-92fbcf53809c.png

圖5 ETH-X超節(jié)點參考架構與預期收益評估

f721f7d4-903e-11ef-a511-92fbcf53809c.png

圖6 ETH-X技術規(guī)范構成與項目計劃

為推動算力產業(yè)的發(fā)展,ODCC網絡組啟動了ETH-X超節(jié)點系列項目。該項目由中國信通院、騰訊聯(lián)合快手科技、燧原科技、壁仞科技、華勤技術、銳捷網絡、新華三、云豹智能、云合智網、盛科通信、立訊精密、光迅科技等合作伙伴共同推動,以產品化樣機以及相關技術規(guī)范為目標,打造大型多GPU互聯(lián)算力集群系統(tǒng)。該項目計劃在2025年秋季前完成ETH-X超節(jié)點樣機軟硬件研發(fā)與相關業(yè)務系統(tǒng)驗證測試,同時發(fā)布ETH-X超節(jié)點技術規(guī)范1.0。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    30898

    瀏覽量

    269128
  • 人工智能
    +關注

    關注

    1791

    文章

    47282

    瀏覽量

    238534
  • 算力
    +關注

    關注

    1

    文章

    977

    瀏覽量

    14823

原文標題:ETH-X超節(jié)點:探索突破AI算力約束的新途徑

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    企業(yè)AI租賃模式的好處

    構建和維護一個高效、可擴展的AI基礎設施,不僅需要巨額的初期投資,還涉及復雜的運維管理和持續(xù)的技術升級。而AI
    的頭像 發(fā)表于 12-24 10:49 ?81次閱讀

    奇異摩爾分享計算芯片Scale Up片間互聯(lián)新途徑

    開放數據中心委員會ODCC冬季全員會議于12月4日-6日在春暖花開的昆明舉行。奇異摩爾首席系統(tǒng)架構師朱琛作為網絡工作組ETH-X節(jié)點項目的核心成員分享了AI Networking S
    的頭像 發(fā)表于 12-09 09:36 ?338次閱讀
    奇異摩爾分享計算芯片Scale Up片間互聯(lián)新途徑

    企業(yè)AI租賃是什么

    企業(yè)AI租賃是指企業(yè)通過互聯(lián)網向專業(yè)的提供商租用所需的計算資源,以滿足其AI應用的需求。
    的頭像 發(fā)表于 11-14 09:30 ?608次閱讀

    GPU開發(fā)平臺是什么

    隨著AI技術的廣泛應用,需求呈現(xiàn)出爆發(fā)式增長。AI租賃作為一種新興的服務模式,正逐漸成為
    的頭像 發(fā)表于 10-31 10:31 ?184次閱讀

    本源“量融合先進計算平臺”入選2024中國·年度重大成果

    近日,2024中國大會在河南鄭州開幕。大會主論壇上,“中國·年度重大成果”正式發(fā)布8項具有突破性意義的技術成果。本源量子與鄭州大學國
    的頭像 發(fā)表于 10-16 08:06 ?372次閱讀
    本源“量<b class='flag-5'>超</b>融合先進計算平臺”入選2024<b class='flag-5'>算</b><b class='flag-5'>力</b>中國·年度重大成果

    哈爾濱即將迎來新紀元:中國移動智中心節(jié)點盛大啟用

    8月22日,來自“哈爾濱發(fā)布”公眾號的最新消息振奮人心,宣布了中國移動智中心(哈爾濱)節(jié)點的一項重大進展——其萬卡智集群將于8月30日正式投入運營。這一里程碑式的投用,不僅標志著
    的頭像 發(fā)表于 08-22 15:19 ?676次閱讀

    大模型時代的需求

    現(xiàn)在AI已進入大模型時代,各企業(yè)都爭相部署大模型,但如何保證大模型的,以及相關的穩(wěn)定性和性能,是一個極為重要的問題,帶著這個極為重要的問題,我需要在此書中找到答案。
    發(fā)表于 08-20 09:04

    光子計算芯片最新突破,峰值1000tops,比電芯片更適合大模型

    意味著它的密度已經超過了先進制程的電芯片。 ? 據光本位科技介紹,矩陣規(guī)模(密度)和單節(jié)點光辨識度(
    的頭像 發(fā)表于 07-08 07:18 ?4661次閱讀
    光子計算芯片最新<b class='flag-5'>突破</b>,峰值<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>超</b>1000tops,比電芯片更適合大模型

    江蘇省基礎設施發(fā)展專項規(guī)劃:打造供給服務新高地

    按照規(guī)劃,江蘇將全力打造“2+N+X網絡梯次多元布局,包括南京、蘇州兩個國家級核心算樞紐集群,N個省內城市級數據中心(云計算中心、智
    的頭像 發(fā)表于 04-26 15:58 ?399次閱讀

    千億美元打造一個系統(tǒng),成本越來越高的AI

    電子發(fā)燒友網報道(文/周凱揚)從近年來新發(fā)布的算機器和新的HPC AI性能榜單可以看出,AI已經在
    的頭像 發(fā)表于 04-09 00:19 ?3061次閱讀

    256Tops!CSA1-N8S1684X服務器

    (基于BM1684X的高服務器)高AI處理器BM1684
    的頭像 發(fā)表于 03-23 08:02 ?1639次閱讀
    256Tops<b class='flag-5'>算</b><b class='flag-5'>力</b>!CSA1-N8S1684<b class='flag-5'>X</b><b class='flag-5'>算</b><b class='flag-5'>力</b>服務器

    智能規(guī)模通用,大模型對智能提出高要求

    的縮寫,即每秒所能夠進行的浮點運算數目(每秒浮點運算量)。 ? 可以分為通用、智能
    的頭像 發(fā)表于 02-06 00:08 ?6362次閱讀

    大茉莉X16-P,5800M大稱王稱霸

    Rykj365
    發(fā)布于 :2024年01月25日 14:54:52

    立足,聚焦AI!順網科技全面走進AI時代

    “立足,聚焦AI”,順網科技進軍AI時代的號角已被吹響。 1月18日,順網科技(300113.SZ)以“躍遷·向未來”為主題的戰(zhàn)略升
    的頭像 發(fā)表于 01-19 10:57 ?461次閱讀
    立足<b class='flag-5'>算</b><b class='flag-5'>力</b>,聚焦<b class='flag-5'>AI</b>!順網科技全面走進<b class='flag-5'>AI</b>智<b class='flag-5'>算</b>時代

    AI應用中的光模塊產品

    以ChatGPT為代表的AI大模型應用普及將推動需求快速增長,服務器產業(yè)鏈是其中重要的受益環(huán)節(jié)之一,AI計算的普及將推動服務器產業(yè)鏈光模塊向800G升級提速。
    的頭像 發(fā)表于 01-02 15:32 ?551次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>應用中的光模塊產品