上線僅2個月,OpenAI的最新一代產(chǎn)品-AI聊天機(jī)器人ChatGPT月活用戶接近1億。
作為自然語言處理(NLP)領(lǐng)域的前沿研究成果之一,ChatGPT已成為AIGC里程碑式的產(chǎn)品。
這周我們也與ChatGPT聊了聊他/她對大規(guī)模預(yù)訓(xùn)練背后所需資源的看法。
讓我們一起來看看ChatGPT的回答是否能讓你滿意呢?
強(qiáng)大的語言生成能力現(xiàn)在引起更多討論的是規(guī)模預(yù)訓(xùn)練。在過去的很長一段時間里,許多的AI廠商都是通過本地設(shè)備來進(jìn)行訓(xùn)練的。
GPT-3所訓(xùn)練的參數(shù)約為1750億個,這部分需要大量的算力,而目前我們已知ChatGPT導(dǎo)入了至少1萬顆英偉達(dá)高端GPU來訓(xùn)練模型。
業(yè)界部分專家認(rèn)為GPT-4訓(xùn)練參數(shù)可能會達(dá)到100萬億個參數(shù),如此大規(guī)模、長時間的GPU集群訓(xùn)練任務(wù),也對網(wǎng)絡(luò)互聯(lián)底座的性能、可靠性、成本等各方面都提出了極致的要求。
面對千億、萬億參數(shù)規(guī)模的大模型訓(xùn)練,僅僅是單次計算迭代內(nèi)梯度同步需要的通信量就高達(dá)TB量級。此外還有各種并行模式、加速框架引入的通信需求,使得傳統(tǒng)低速網(wǎng)絡(luò)的帶寬遠(yuǎn)遠(yuǎn)無法支撐GPU集群的高效計算,甚至成為了其中關(guān)鍵的瓶頸。
因此要充分發(fā)揮GPU計算資源的強(qiáng)大算力,必須構(gòu)建一個全新的高性能網(wǎng)絡(luò)底座,用高速網(wǎng)絡(luò)的大帶寬來助推整個集群計算的高效率。
以CPU+GPU的異構(gòu)計算模型已經(jīng)成為高性能計算領(lǐng)域中的主流計算架構(gòu)。而高吞吐、低延時是高性能計算場景中最為迫切的應(yīng)用需求。
我們可以知道,GPUDirect RDMA是RDMA在異構(gòu)計算場景中的應(yīng)用延伸,使得GPU之間的通信不在依賴CPU轉(zhuǎn)發(fā),從而進(jìn)一步提升高性能計算場景中整體算力。
從DPU芯片的實現(xiàn)角度看,不同DPU廠商的核心競爭壁壘在于專用加速引擎的硬件實現(xiàn)上。由于DPU是數(shù)據(jù)中心中所有服務(wù)器的流量入口,并以處理報文的方式處理數(shù)據(jù),在網(wǎng)絡(luò)芯片領(lǐng)域積累更多的廠商將更有優(yōu)勢。
傳統(tǒng)的GPU在訪問存儲時,需要將數(shù)據(jù)先搬移到系統(tǒng)內(nèi)存,再由系統(tǒng)內(nèi)存搬移到目標(biāo)設(shè)備。而采用DPU介入后可以繞過CPU,直接通過PCIe訪問遠(yuǎn)端的NVMe設(shè)備,加速AI訓(xùn)練,大大降低CPU的開銷。
在AI/ML領(lǐng)域的工作負(fù)載對于存儲系統(tǒng)的要求十分苛刻,目前此類應(yīng)用已主要采用全閃存存儲,其中NVMe全閃存逐漸成為主流趨勢。同時存儲與前端應(yīng)用主機(jī)的網(wǎng)絡(luò)存儲協(xié)議開始采用NVMe over Fabrics(NVMe-oF)。
NVMe-oF是一種存儲網(wǎng)絡(luò)協(xié)議,通過網(wǎng)絡(luò)將NVMe命令傳送到遠(yuǎn)程NVMe子系統(tǒng),以利用NVMe 全閃存的并行訪問和低延遲,該規(guī)范定義了一個協(xié)議接口,旨在與高性能fabric技術(shù)配合使用,包括通過實現(xiàn)RDMA技術(shù)的InfiniBand、RoCE v2、iWARP或TCP。
NVMe-oF是一種使用NVMe協(xié)議將訪問擴(kuò)展到遠(yuǎn)程存儲系統(tǒng)的非易失性存儲器(NVM)設(shè)備的方法。這使得前端接口能夠連接到存儲系統(tǒng)中,擴(kuò)展到大量NVMe設(shè)備,并延長數(shù)據(jù)中心內(nèi)可以訪問NVMe子系統(tǒng)的距離。NVMe-oF的目標(biāo)是顯著改善數(shù)據(jù)中心網(wǎng)絡(luò)延遲,并為遠(yuǎn)程NVMe設(shè)備提供近似于本地訪問的延遲,目標(biāo)為10us。
我們知道AI對計算的需求非常大,目前主流的AI加速還是以GPU、FPGA和一些專門的AI芯片等為主。在GPU、AI芯片用于AI計算之前都是CPU承擔(dān)計算的任務(wù),CPU的效率難以滿足需求,從而產(chǎn)生CPU+GPU+ASIC的異構(gòu)計算。隨著DPU的出現(xiàn),這種異構(gòu)計算的發(fā)展更加徹底,可以更大提供并行處理能力,適合大規(guī)模計算的發(fā)展。
支持Chiplet技術(shù)的超異構(gòu)算力芯片,伴隨著AI/ML的發(fā)展將會得到更好的應(yīng)用,而支持Die-To-Die互聯(lián)技術(shù)將能夠提供互聯(lián)其他AI芯片和算力單元的巨大能力,擺脫一直以來PCIe發(fā)展的限制。 ??拿芯啟源自身舉例,以支持高級AI為主要目標(biāo)之一的芯啟源最新的DPU芯片,其架構(gòu)中就應(yīng)用Chiplet技術(shù)。不僅提升了自有智能網(wǎng)卡的性能,通過支持與第三方芯片的Die-To-Die互聯(lián),還可以集成更多的特定專業(yè)領(lǐng)域的芯片,比如AI訓(xùn)練中的GPU芯片。
雖然PCIe非常的標(biāo)準(zhǔn),但是帶寬非常有限的,PCIe Gen3的理論帶寬是32GB/s,PCIe Gen4的理論帶寬是64GB/s,而實測帶寬大概分別是24GB/s和48GB/s。
在AI訓(xùn)練中,每完成一輪計算,都要同步更新一次參數(shù),也就是權(quán)系數(shù)。模型規(guī)模越大,參數(shù)規(guī)模一般也會更大,這樣算力芯片的效率會收到PCIe架構(gòu)的限制,支持更高能力層次的互聯(lián)技術(shù)講徹底解決帶寬限制和瓶頸,極大提升單節(jié)點計算效率。
和ChatGPT聊了那么多,最后再讓我們來看看他/她對于DPU應(yīng)用了解多少呢?
審核編輯 :李倩
-
AI
+關(guān)注
關(guān)注
87文章
31279瀏覽量
269641 -
DPU
+關(guān)注
關(guān)注
0文章
365瀏覽量
24218 -
chiplet
+關(guān)注
關(guān)注
6文章
434瀏覽量
12609
原文標(biāo)題:爆紅智能AI如何看待DPU ChatGPT這樣說
文章出處:【微信號:corigine,微信公眾號:芯啟源】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論