0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PODsys:大模型AI算力平臺(tái)部署的開源“神器”

全球TMT ? 來源:全球TMT ? 作者:全球TMT ? 2023-11-08 09:17 ? 次閱讀

大模型是通用人工智能的底座,但大模型訓(xùn)練對算力平臺(tái)的依賴非常大。大模型算力平臺(tái)是指支撐大模型訓(xùn)練和推理部署的算力基礎(chǔ)設(shè)施,包括業(yè)界最新的加速卡、高速互聯(lián)網(wǎng)絡(luò)、高性能分布式存儲(chǔ)系統(tǒng)、液冷系統(tǒng)和高效易用的大模型研發(fā)工具和框架。在算力平臺(tái)的部署過程中,大模型研發(fā)機(jī)構(gòu)常常需要面對一系列的問題:大模型算力平臺(tái)是什么樣的?如何快速構(gòu)建大模型算力平臺(tái)?如何確保算力平臺(tái)穩(wěn)定可靠?如何提升部署效率?如何提升算力平臺(tái)的性能……這些問題能否順利解決,直接關(guān)系到大模型研發(fā)和應(yīng)用落地的速度。

為了幫助用戶加速大模型的技術(shù)創(chuàng)新與應(yīng)用落地,浪潮信息發(fā)布了大模型智算軟件棧OGAI(Open GenAI Infra)。OGAI由5層架構(gòu)組成,從L0到L4分別對應(yīng)于基礎(chǔ)設(shè)施層的智算中心OS產(chǎn)品、系統(tǒng)環(huán)境層的PODsys產(chǎn)品、調(diào)度平臺(tái)層的AIStation產(chǎn)品、模型工具層的YLink產(chǎn)品和多模納管層的MModel產(chǎn)品。其中L1層PODsys是一個(gè)為客戶提供智算集群系統(tǒng)環(huán)境部署方案的開源項(xiàng)目,具備基礎(chǔ)設(shè)施環(huán)境安裝、環(huán)境部署、用戶管理、系統(tǒng)監(jiān)控和資源調(diào)度等能力。用戶只需執(zhí)行兩條簡單的命令,即可完成大模型算力平臺(tái)的部署,將大模型算力平臺(tái)部署效率提升11倍,幫助用戶順利邁出大模型研發(fā)的第一步。(下載地址:https://podsys.ai/)

大模型算力平臺(tái)部署難題亟待求解

大模型參數(shù)量和訓(xùn)練數(shù)據(jù)復(fù)雜性快速增加,對AI算力平臺(tái)的建設(shè)提出了新的要求,即需要從數(shù)據(jù)中心規(guī)?;懔Σ渴鸬慕嵌?,統(tǒng)籌考慮大模型分布式訓(xùn)練對計(jì)算、網(wǎng)絡(luò)和存儲(chǔ)的需求特點(diǎn),并集成平臺(tái)軟件、結(jié)合應(yīng)用實(shí)踐,充分關(guān)注數(shù)據(jù)傳輸、任務(wù)調(diào)度、并行優(yōu)化、資源利用率等,設(shè)計(jì)和構(gòu)建高性能、高速互聯(lián)、存算平衡的可擴(kuò)展集群系統(tǒng),以滿足AI大模型的訓(xùn)練需求。

強(qiáng)大的大模型算力平臺(tái)不僅需要高性能的CPUGPU、存儲(chǔ)、網(wǎng)絡(luò)等硬件設(shè)備,還需要考慮不同硬件和軟件之間的兼容性和版本選擇,確保驅(qū)動(dòng)和工具的適配性和穩(wěn)定性。當(dāng)算力平臺(tái)的規(guī)模從十幾臺(tái)服務(wù)器擴(kuò)展到幾百臺(tái),平臺(tái)部署難度會(huì)呈指數(shù)級上升。

首先,算力平臺(tái)部署需要的相關(guān)驅(qū)動(dòng)程序、軟件包往往高達(dá)數(shù)十個(gè),正確安裝、部署并優(yōu)化這些驅(qū)動(dòng)程序與軟件,需要專業(yè)的運(yùn)維工程師和大量調(diào)試時(shí)間,嚴(yán)重影響部署效率。其次,為了確保算力平臺(tái)的高性能和穩(wěn)定運(yùn)行,需要驗(yàn)證不同硬件環(huán)境下的軟件適配,優(yōu)化BIOS、操作系統(tǒng)、底層驅(qū)動(dòng)、文件系統(tǒng)和網(wǎng)絡(luò)等多項(xiàng)指標(biāo),找到最優(yōu)的選擇,這一工作同樣費(fèi)時(shí)費(fèi)力。此外,算力平臺(tái)的資源狀態(tài)處于時(shí)刻的變動(dòng)中,如果不進(jìn)行合理的資源調(diào)度與管理,很容易影響平臺(tái)的資源利用率。

PODsys讓大模型算力平臺(tái)部署"易如反掌"

PODsys專注于大模型算力平臺(tái)部署場景,提供包括基礎(chǔ)設(shè)施環(huán)境安裝、環(huán)境部署、用戶管理、系統(tǒng)監(jiān)控和資源調(diào)度在內(nèi)的完整工具鏈,旨在打造一個(gè)開源、高效、兼容、易用的智算集群系統(tǒng)方案。

PODsys整合了大模型算力平臺(tái)部署所需的數(shù)十個(gè)驅(qū)動(dòng)、軟件等安裝包以及對應(yīng)的依賴和兼容關(guān)系,并提供了一系列的簡化部署的腳本工具。使用這些工具只需要簡單2個(gè)步驟,PODsys即可幫助用戶快速部署大模型算力平臺(tái)。

wKgaomVKKheAHNq5AACoXn52A_A649.jpg


步驟1:使用docker run命令快速啟動(dòng)PODsys系統(tǒng)。

PODsys系統(tǒng)集成了大模型算力平臺(tái)部署所需的操作系統(tǒng)、GPU驅(qū)動(dòng)、網(wǎng)卡驅(qū)動(dòng)、通信加速庫等數(shù)十個(gè)驅(qū)動(dòng)程序、軟件和安裝包,并提供了一系列腳本工具來簡化部署,讓用戶可以快速安裝、配置和更新集群環(huán)境。PODsys大量選用了業(yè)界廣泛使用的主流開源系統(tǒng)、工具、框架和軟件,來保障整個(gè)部署方案的開放性、兼容性和穩(wěn)定性。

步驟2:使用install_client命令快速部署大模型算力平臺(tái)的并行軟件環(huán)境。

PODsys將單機(jī)部署方式改成集群部署方式,可將部署效率提升11倍以上。在管理節(jié)點(diǎn)運(yùn)行一句簡單的命令(install_client.sh),即可完成大模型算力平臺(tái)的環(huán)境配置,集成了高速文件系統(tǒng)接口、自動(dòng)化運(yùn)維工具、NVDIA CUDA編程框架、NCCL高性能通信庫,支持NGC加速平臺(tái)等功能。并能實(shí)現(xiàn)多用戶、多租戶管理集群。

PODsys提供了全面的系統(tǒng)監(jiān)控和管理,幫助用戶實(shí)時(shí)監(jiān)控集群的狀態(tài)和性能指標(biāo)。通過可視化的界面,用戶可以查看集群資源的使用情況、作業(yè)的執(zhí)行情況和性能瓶頸,從而及時(shí)調(diào)整集群配置和優(yōu)化作業(yè)性能,來保證算力平臺(tái)的高性能和穩(wěn)定運(yùn)行。

此外,PODsys具備高效的資源調(diào)度和作業(yè)管理功能,可以根據(jù)用戶的需求自動(dòng)調(diào)度和管理作業(yè),確保集群的資源利用率和作業(yè)的執(zhí)行效率。

伴隨著大模型的快速應(yīng)用,算力平臺(tái)的魯棒性、易用性、部署效率成為用戶關(guān)注的首要問題。針對商業(yè)用戶,PODsys還提供專業(yè)的算力平臺(tái)性能調(diào)優(yōu)服務(wù)。

總之,PODsys提供了一套完整的工具鏈,將大模型平臺(tái)部署變得像系統(tǒng)安裝一樣簡單,讓用戶省時(shí)、省力地部署大模型算力平臺(tái),助力大模型創(chuàng)新走好第一步。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 半導(dǎo)體
    +關(guān)注

    關(guān)注

    334

    文章

    27467

    瀏覽量

    219536
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4744

    瀏覽量

    129016
  • AI算力
    +關(guān)注

    關(guān)注

    0

    文章

    73

    瀏覽量

    8724
收藏 人收藏

    評論

    相關(guān)推薦

    浪潮信息與智源研究院攜手共建大模型多元生態(tài)

    近日,浪潮信息與北京智源人工智能研究院正式簽署戰(zhàn)略合作協(xié)議,雙方將緊密合作,共同構(gòu)建大模型多元開源創(chuàng)新生態(tài)。 此次合作旨在提升大模型創(chuàng)新
    的頭像 發(fā)表于 12-31 11:49 ?229次閱讀

    企業(yè)AI租賃模式的好處

    構(gòu)建和維護(hù)一個(gè)高效、可擴(kuò)展的AI基礎(chǔ)設(shè)施,不僅需要巨額的初期投資,還涉及復(fù)雜的運(yùn)維管理和持續(xù)的技術(shù)升級。而AI
    的頭像 發(fā)表于 12-24 10:49 ?138次閱讀

    企業(yè)AI模型部署攻略

    當(dāng)下,越來越多的企業(yè)開始探索和實(shí)施AI模型,以提升業(yè)務(wù)效率和競爭。然而,AI模型部署并非易事
    的頭像 發(fā)表于 12-23 10:31 ?131次閱讀

    企業(yè)AI租賃是什么

    企業(yè)AI租賃是指企業(yè)通過互聯(lián)網(wǎng)向?qū)I(yè)的提供商租用所需的計(jì)算資源,以滿足其AI應(yīng)用的需求。
    的頭像 發(fā)表于 11-14 09:30 ?724次閱讀

    GPU開發(fā)平臺(tái)是什么

    隨著AI技術(shù)的廣泛應(yīng)用,需求呈現(xiàn)出爆發(fā)式增長。AI租賃作為一種新興的服務(wù)模式,正逐漸成為
    的頭像 發(fā)表于 10-31 10:31 ?195次閱讀

    GPU租用平臺(tái)是什么

    GPU租用平臺(tái)是一種基于云計(jì)算的服務(wù)模式,它允許用戶通過互聯(lián)網(wǎng)按需租用高性能GPU資源,而無需自行購買、部署和維護(hù)這些硬件。
    的頭像 發(fā)表于 10-16 10:15 ?252次閱讀

    使用OpenVINO 2024.4在魔方上部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3在魔方的本地量化和部署》。2024年9月25日,Meta又發(fā)布了Llama3.2:一個(gè)多語言大型語言模型(LLMs)的集合。
    的頭像 發(fā)表于 10-12 09:39 ?610次閱讀
    使用OpenVINO 2024.4在<b class='flag-5'>算</b><b class='flag-5'>力</b>魔方上<b class='flag-5'>部署</b>Llama-3.2-1B-Instruct<b class='flag-5'>模型</b>

    【「大模型時(shí)代的基礎(chǔ)架構(gòu)」閱讀體驗(yàn)】+ 未知領(lǐng)域的感受

    ?如何構(gòu)建無限擴(kuò)展的平臺(tái)?如何運(yùn)維運(yùn)營AI平臺(tái)
    發(fā)表于 10-08 10:40

    模型時(shí)代的需求

    現(xiàn)在AI已進(jìn)入大模型時(shí)代,各企業(yè)都爭相部署模型,但如何保證大模型
    發(fā)表于 08-20 09:04

    PerfXCloud大模型開發(fā)與部署平臺(tái)開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發(fā)者和企業(yè)量身打造的AI開發(fā)和部署平臺(tái)。它專注于滿足大模型的微調(diào)和推理需求,為用戶提供極致便捷的一鍵
    的頭像 發(fā)表于 07-02 10:27 ?391次閱讀
    PerfXCloud大<b class='flag-5'>模型</b>開發(fā)與<b class='flag-5'>部署</b><b class='flag-5'>平臺(tái)</b>開放注冊

    科華數(shù)據(jù)攜手希姆計(jì)算,推動(dòng)國產(chǎn)RISC-V開源AI快速發(fā)展

    AI服務(wù),滿足各行各業(yè)對AIAI解決方案的需求。同時(shí),基于希姆計(jì)算的開源RISC-V
    的頭像 發(fā)表于 06-30 08:36 ?593次閱讀
    科華數(shù)據(jù)攜手希姆計(jì)算,推動(dòng)國產(chǎn)RISC-V<b class='flag-5'>開源</b><b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>快速發(fā)展

    科華數(shù)據(jù)攜手希姆計(jì)算,推動(dòng)國產(chǎn)RISC-V開源AI快速發(fā)展

    AI服務(wù),滿足各行各業(yè)對AIAI解決方案的需求。同時(shí),基于希姆計(jì)算的開源RISC-V
    的頭像 發(fā)表于 06-26 08:36 ?561次閱讀
    科華數(shù)據(jù)攜手希姆計(jì)算,推動(dòng)國產(chǎn)RISC-V<b class='flag-5'>開源</b><b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>快速發(fā)展

    潞晨科技Colossal-AI + 浪潮信息AIStation,大模型開發(fā)效率提升10倍

    的潞晨科技Colossal-AI系統(tǒng),用戶可實(shí)現(xiàn)在本地平臺(tái)一鍵訓(xùn)練、微調(diào)、推理、部署模型
    的頭像 發(fā)表于 03-01 09:43 ?496次閱讀
    潞晨科技Colossal-<b class='flag-5'>AI</b> + 浪潮信息AIStation,大<b class='flag-5'>模型</b>開發(fā)效率提升10倍

    數(shù)據(jù)語料庫、算法框架和芯片在AI模型中的作用和影響

    數(shù)據(jù)語料庫、算法框架和芯片的確是影響AI模型發(fā)展的三大重要因素。
    的頭像 發(fā)表于 03-01 09:42 ?1138次閱讀

    NVIDIA AI Enterprise助力九州未來構(gòu)建MaaS平臺(tái)

    本案例中,九州未來的團(tuán)隊(duì)基于NVIDIA AI Enterprise的全棧軟件套件,構(gòu)建其 MaaS 大模型一體化開發(fā)及部署平臺(tái),該平臺(tái)同時(shí)
    的頭像 發(fā)表于 01-10 17:24 ?1241次閱讀