0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DGX SuperPOD助力助力織女模型的高效訓(xùn)練

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-13 15:13 ? 次閱讀

案例簡介

本案例中基于京東和 NVIDIA 英偉達(dá)聯(lián)合部署的 DGX SuperPOD 分布式集群,京東探索研究院聯(lián)合悉尼大學(xué)共同開發(fā)了織女模型,在 DGX SuperPOD 集群上可高效擴(kuò)展并快速完成迭代,一舉刷新 GLUE 兩大挑戰(zhàn)性任務(wù)榜單。

? 本案例為 NVIDIA DGX SuperPOD 平臺加速大模型訓(xùn)練

? 本案例主要應(yīng)用到 DGX A100、Mellanox HDR Infiniband、DGX SuperPOD、和 NVPS 服務(wù)

? DGX SuperPOD 是一套完整的解決方案

客戶簡介及客戶挑戰(zhàn)

京東探索研究院致力于世界前沿技術(shù)的研究,其中人工智能方向涵蓋 CV、NLP、多模態(tài)等。大規(guī)模語音模型的研究更是京東探索研究院的重中之重。

以語言模型為例,在過去 2-3 年的時(shí)間,語言模型大小每年都在以 1-2 個(gè)數(shù)量級的速度在增加,如今,則已達(dá)到萬億參數(shù)的級別。而模型的結(jié)構(gòu)和復(fù)雜性日益變化,這對 GPU 集群的架構(gòu)提出了不一樣的要求。

從系統(tǒng)層面看,既有的 GPU 計(jì)算集群主要是以支持單機(jī)任務(wù)、小規(guī)模多機(jī)任務(wù)為主,相較之下,其多機(jī)之間網(wǎng)絡(luò)擴(kuò)展能力則較弱,而大規(guī)模擴(kuò)展能力也較為受限。因此,在既有的 GPU 集群架構(gòu)下,較無法滿足服務(wù)大模型的計(jì)算需求。

對于京東探索研究院而言,掌握時(shí)效是關(guān)鍵,更快的模型訓(xùn)練意味著能加速迭代、擴(kuò)展嘗試空間、使產(chǎn)品落地更迅速,并提高業(yè)務(wù)收益。在模型越來越復(fù)雜多樣、計(jì)算需求越來越大、單任務(wù)計(jì)算規(guī)模越來越大的背景下,如何快速新建一個(gè)可高效擴(kuò)展并易用的 GPU 集群,以滿足應(yīng)對上述挑戰(zhàn),是亟待解決的核心問題。

應(yīng)用方案

基于以上挑戰(zhàn),京東探索研究院選擇了采用 NVIDIA DGX SuperPOD 方案來提供支持,并成功給業(yè)務(wù)側(cè)帶來了巨大的提升及解決企業(yè)痛點(diǎn)。

NVIDIA DGX SuperPOD 是一套完整的解決方案,基于 DGX A100 服務(wù)器、HDR Infiniband 200G 網(wǎng)卡和 NVIDIA Quantum QM8790 交換機(jī)構(gòu)建了一套全互聯(lián)架構(gòu),在保證單機(jī)計(jì)算能力最強(qiáng)的同時(shí),采用計(jì)算和存儲網(wǎng)絡(luò)相隔離的方案,最大程度地從網(wǎng)絡(luò)上保證集群的互聯(lián)能力。

安裝部署方面,NVIDIA 為 DGX SuperPOD 提供專業(yè)的部署服務(wù),包括單機(jī)系統(tǒng)部署、IB 網(wǎng)絡(luò)配置、調(diào)度安裝調(diào)試、監(jiān)控部署、多機(jī)環(huán)境、基礎(chǔ)性能驗(yàn)證等,從基礎(chǔ)系統(tǒng)方面,保證了最快交付。

使用方面,NVIDIA 為 DGX SuperPOD 部署了 Slurm 調(diào)度系統(tǒng),并基于 NGC 和客戶主要的幾類模型,提供了完整的作業(yè)腳本,用戶只需簡單修改幾行參數(shù)來適配自己的模型,即可一鍵方便地運(yùn)行起大規(guī)模分布式任務(wù)。

性能方面,DGX SuperPOD經(jīng)過一系列的基礎(chǔ)優(yōu)化(CUDA-X, Magnum IO, NGC)和評測驗(yàn)證(MLPerf),提供最好的 AI 訓(xùn)練性能,在京東探索研究院針對CV、NLP、跨模態(tài)等領(lǐng)域設(shè)計(jì)和研發(fā)的數(shù)十個(gè)模型上,經(jīng)過雙方一系列系統(tǒng)級的合作優(yōu)化,在 DGX SuperPOD 上達(dá)到了比較理想的加速比和擴(kuò)展性。

使用 DGX SuperPOD 方案,用戶只需要關(guān)注自己的 AI 模型和算法研究,無需關(guān)注硬件和系統(tǒng)層的配置、優(yōu)化、擴(kuò)展性等問題,讓 AI 研究人員把寶貴的時(shí)間和精力專注在前沿的 AI 技術(shù)研究上。

使用效果及影響

使用了 DGX SuperPOD 集群方案,極大地加速了用戶的 AI 訓(xùn)練和迭代速度,為用戶進(jìn)一步探索出更強(qiáng)大更智能的 AI 模型建立了堅(jiān)實(shí)的基石。

在 DGX SuperPOD 交付給用戶僅僅兩個(gè)多月之后,京東探索研究院就聯(lián)合悉尼大學(xué)在傳統(tǒng) “預(yù)訓(xùn)練-微調(diào)” 的范式下,利用 DGX SuperPOD 的高效擴(kuò)展能力,通過研究和工程上的全方位創(chuàng)新,研發(fā)出了織女模型,在通用語言理解評估基準(zhǔn)(GLUE)的兩項(xiàng)挑戰(zhàn)性任務(wù),即情感分析任務(wù) SST(The Stanford Sentiment Treebank)和指代消解任務(wù) WNLI (Winograd NLI)中首次超越人類,位居所有參賽機(jī)構(gòu)第一。

“強(qiáng)悍的織女模型在京東探索研究院建設(shè)的全國首個(gè)基于 DGX SuperPOD 架構(gòu)的超大規(guī)模計(jì)算集群 “天琴α” 上完成訓(xùn)練,該集群具有全球領(lǐng)先的大規(guī)模分布式并行訓(xùn)練技術(shù),其近似線性加速比的數(shù)據(jù)、模型、流水線并行技術(shù)持續(xù)助力織女模型的高效訓(xùn)練?!?/p>

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5160

    瀏覽量

    104918
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    12

    文章

    9507

    瀏覽量

    86685
收藏 0人收藏

    評論

    相關(guān)推薦

    PoE交換機(jī)如何助力智慧城市基礎(chǔ)設(shè)施建設(shè)?

    隨著全球城市化的加速發(fā)展,智慧城市的概念正逐步成為現(xiàn)實(shí)。通過技術(shù)手段提升居民生活質(zhì)量、優(yōu)化城市運(yùn)營并促進(jìn)可持續(xù)發(fā)展已成為趨勢。彈性且高效的網(wǎng)絡(luò)是智慧城市基礎(chǔ)設(shè)施的關(guān)鍵支撐,而以太網(wǎng)供電(PoE
    發(fā)表于 03-25 10:20

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    CN71102TGR過零檢測芯片助力高效穩(wěn)定控制

    CN71102TGR過零檢測芯片助力高效穩(wěn)定控制
    的頭像 發(fā)表于 02-28 10:12 ?194次閱讀
    CN71102TGR過零檢測芯片<b class='flag-5'>助力</b><b class='flag-5'>高效</b>穩(wěn)定控制

    助力AIoT應(yīng)用:在米爾FPGA開發(fā)板上實(shí)現(xiàn)Tiny YOLO V4

    署 Tiny YOLO V4,我們可以為智能家居、智慧城市等 AIoT 應(yīng)用提供高效的解決方案。 CPU GPU FPGA 架構(gòu)對比 二、 了解 Tiny YOLO 模型及其適用性YOLO(You
    發(fā)表于 12-06 17:18

    商湯醫(yī)療聯(lián)合成立上海公共服務(wù)MaaS訓(xùn)練及成果轉(zhuǎn)化聯(lián)盟

    助力構(gòu)建全鏈條大模型訓(xùn)練及成果轉(zhuǎn)化體系,打通產(chǎn)學(xué)研醫(yī)合作生態(tài),商湯醫(yī)療再拓“醫(yī)療大模型朋友圈”。
    的頭像 發(fā)表于 11-28 10:57 ?510次閱讀

    什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

    本文通俗簡單地介紹了什么是大模型、大模型是怎么訓(xùn)練出來的和大模型的作用。 ? 什么是大模型模型
    的頭像 發(fā)表于 11-25 09:29 ?1.2w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來的及大<b class='flag-5'>模型</b>作用

    PyTorch GPU 加速訓(xùn)練模型方法

    在深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時(shí)間的重要手段。PyTorch作為一個(gè)流行的深度學(xué)習(xí)框架,提供了豐富的工具和方法來利用GPU進(jìn)行
    的頭像 發(fā)表于 11-05 17:43 ?1018次閱讀

    NVIDIA助力丹麥發(fā)布首臺AI超級計(jì)算機(jī)

    這臺丹麥最大的超級計(jì)算機(jī)由該國政府與丹麥 AI 創(chuàng)新中心共同建設(shè),是一臺 NVIDIA DGX SuperPOD 超級計(jì)算機(jī)。
    的頭像 發(fā)表于 10-27 09:42 ?666次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?677次閱讀

    人臉識別模型訓(xùn)練流程

    人臉識別模型訓(xùn)練流程是計(jì)算機(jī)視覺領(lǐng)域中的一項(xiàng)重要技術(shù)。本文將詳細(xì)介紹人臉識別模型訓(xùn)練流程,包括數(shù)據(jù)準(zhǔn)備、模型選擇、
    的頭像 發(fā)表于 07-04 09:19 ?1437次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度學(xué)習(xí)模型,本質(zhì)上是通過優(yōu)化算法調(diào)整模型參數(shù),
    的頭像 發(fā)表于 07-01 16:13 ?1912次閱讀

    英偉達(dá)開源Nemotron-4 340B系列模型,助力大型語言模型訓(xùn)練

    近日,英偉達(dá)宣布開源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開發(fā)者們打開了通往高性能大型語言模型(LLM)訓(xùn)練的新天地。該系列模型不僅包含高達(dá)3400億參數(shù),而且
    的頭像 發(fā)表于 06-17 14:53 ?723次閱讀

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    、庫及優(yōu)化的AI模型和應(yīng)用程序,為用戶提供全面的AI計(jì)算解決方案。 DGX SuperPOD - 專為人工智能設(shè)計(jì)的數(shù)據(jù)中心 NVIDIA 發(fā)布專為訓(xùn)練和推理萬億參數(shù)生成式AI
    發(fā)表于 05-13 17:16

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    大語言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對預(yù)訓(xùn)練數(shù)據(jù)的需求也相應(yīng)
    發(fā)表于 05-07 17:10

    英偉達(dá)Blackwell平臺網(wǎng)絡(luò)配置分析

    采用 DGX GB200 系統(tǒng)的 NVIDIA DGX SuperPOD 專為訓(xùn)練和推理萬億參數(shù)生成式AI 模型而構(gòu)建。
    的頭像 發(fā)表于 04-17 11:01 ?1893次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品