0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT引領(lǐng)AI技術(shù)變革,帶動(dòng)服務(wù)器需求增量

安防監(jiān)控存儲(chǔ)聯(lián)盟 ? 來源:安防監(jiān)控存儲(chǔ)聯(lián)盟 ? 2023-02-23 10:50 ? 次閱讀

OpenAI GPT 技術(shù)的聊天機(jī)器人,其擁有 3000 億單詞的語料基礎(chǔ),預(yù)訓(xùn)練出擁有 1750 億個(gè)參數(shù)的模型,海量的參數(shù)與強(qiáng)大的智能交互能力離不開背后算力和服務(wù)器的支撐。據(jù)我們測算,若未來 ChatGPT 達(dá)到 10 億日活,每人平均 10000字左右問題,則需新增服務(wù)器投入 46.30 萬臺(tái)。服務(wù)器的需求起量為上游的存儲(chǔ)/PCB/模擬市場帶來新增量。我們預(yù)計(jì),單臺(tái)服務(wù)器帶來的 PCB 價(jià)值量約為 4000元,而 AI 服務(wù)器放量亦將帶來 DDR5 和 HBM 存儲(chǔ)用量的快速提升。

01

ChatGPT:引領(lǐng)內(nèi)容生成式 AI 行業(yè)變革

此前微軟宣布將在未來向 OpenAI 投資 100 億美元,并將 ChatGPT 的技術(shù)整合到最新版本的必應(yīng)搜索引擎和 Edge 瀏覽器中。微軟這一舉動(dòng)拉開了大型科技公司 AI 競賽的序幕,谷歌亦宣布推出 Bard 對抗 ChatGPT,國內(nèi)百度、騰訊等科技巨頭亦在加緊推出自己的生成式 AI

從 2018 年 OpenAI 開發(fā)出 GPT-1 開始,GPT 模型的智能化程度不斷提升,ChatGPT 是從 GPT3.5 系列中的模型進(jìn)行微調(diào)而誕生的,此前 OpenAI 還設(shè)計(jì)了GPT-1、GPT-2 和 GPT-3 模型。相比于前幾代 GPT 模型,ChatGPT 具有類似人類的情境感知和回饋能力,在語言識(shí)別、判斷和交互層面實(shí)現(xiàn)了較好的效果。除此之外,OpenAI 旗下還有可生成圖片內(nèi)容的 AI 應(yīng)用 Dall-E,高智能化的內(nèi)容生成式 AI 有望在未來一段時(shí)間內(nèi)改變?nèi)祟惪萍及l(fā)展的格局,讓智能化廣泛進(jìn)入人們的日常生活。

3d3c4614-b320-11ed-bfe3-dac502259ad0.png

ChatGPT 為人類開拓出了訓(xùn)練大語言模型的新道路。ChatGPT 在擁有 3000億單詞的語料基礎(chǔ)上預(yù)訓(xùn)練出擁有 1750 億個(gè)參數(shù)的模型(GPT-2 僅有 15 億參數(shù)),預(yù)訓(xùn)練數(shù)據(jù)量從 5GB 增加到 45TB。ChatGPT 證明了在高算力的支持下,千億級(jí)參數(shù)規(guī)模的模型訓(xùn)練+人類反饋,可以使 AI 融合世界的知識(shí)和規(guī)則,極大提升模型表現(xiàn)。

3d75e068-b320-11ed-bfe3-dac502259ad0.png

02

ChatGPT 拉動(dòng)算力需求快速增長

ChatGPT 參數(shù)量、數(shù)據(jù)量高度擴(kuò)張,算力需求劇增。從 2018 年起,OpenAI就開始發(fā)布生成式預(yù)訓(xùn)練語言模型 GPT(Generative Pre-trained Transformer),可用于生成文章、代碼、機(jī)器翻譯、問答等各類內(nèi)容,每一代 GPT 模型的參數(shù)量都快速增長:2019 年 2 月發(fā)布的 GPT-2 參數(shù)量為 15 億,而 2020 年 5 月的 GPT-3,參數(shù)量達(dá)到了 1750 億。

3d9f4354-b320-11ed-bfe3-dac502259ad0.png

ChatGPT 海量的參數(shù)與強(qiáng)大的智能交互能力,離不開算力的支撐。根據(jù)Similarweb 的數(shù)據(jù),23 年 1 月份 ChatGPT 日活約 1300 萬人,累計(jì)用戶已超 1億人,創(chuàng)下了互聯(lián)網(wǎng)最快破億應(yīng)用的記錄。若 ChatGPT 日活達(dá)至 1 億人,每人平均 1000 字左右的問題,那么需要多大的算力資源支持?

我們建立計(jì)算假設(shè)如下:

1) 假設(shè)均采用英偉達(dá) DGX A100 服務(wù)器:該服務(wù)器單機(jī)搭載 8 片 A100GPU,AI 算力性能約為 5 PetaFLOP/s,單機(jī)最大功率約為 6.5kw;

2) ChatGPT 日活達(dá)至 1 億人,每人平均 1000 字左右問題;

3) 自回歸語言模型以 token 作為單位進(jìn)行數(shù)據(jù)處理和計(jì)算,在英文環(huán)境下,一般 750 個(gè)單詞等于 1000 個(gè) token。最常見的 Transformer 類語言模型在推理過程中每個(gè) token 的計(jì)算成本(以 FLOPs 為指標(biāo))約為 2N,其中 N 為模型參數(shù)數(shù)量(20 年發(fā)布的 GPT-3 擁有 1750 億參數(shù),22 年谷歌發(fā)布的 PaLM 擁有 5400 億參數(shù),假定 ChatGPT 為 3000 億參數(shù));

4) 模型的 FLOPs 利用率為 20%;

5) 假定訪問峰值是一天均值的 5 倍;

若 ChatGPT 日活達(dá)至 1 億人,每人平均 1000 字左右的問題,初始服務(wù)器投入需 4630 臺(tái)。粗略估計(jì) ChatGPT 1000 字左右的問題需要的算力資源為2*3000 億*1000*1.333/20%=4PetaFLOP,而 ChatGPT 日活約 1 億人,若每人平均 1000 字左右的問題,假設(shè) 24 小時(shí)平均分配任務(wù),則所需算力為 1 億*4PetaFLOP/(24*3600s)=4630PetaFLOP/ s。考慮訪問流量存在峰值,假定訪問峰值是一天均值的 5 倍,而單臺(tái)英偉達(dá) DGXA100 系列服務(wù)器算力為 5 PetaFLOP/s,則需要對應(yīng)服務(wù)器數(shù)量為 4630PetaFLOP/s*5/ PetaFLOP/s=4630 臺(tái)。

而若未來 ChatGPT 日活達(dá)至 10 億人,每人平均 10000 字左右問題,則有望帶動(dòng)約 46.30 萬臺(tái)。

3e0f7502-b320-11ed-bfe3-dac502259ad0.png

且考慮谷歌每日搜索量已達(dá) 35 億次,長期來看 ChatGPT 日活有廣闊的提升空間,算力需求將持續(xù)釋放。此外,若考慮 ChatGPT 嵌入終端應(yīng)用后,其對算力資源的消耗量或?qū)⒊蓴?shù)倍級(jí)增長,所需服務(wù)器數(shù)量需求更是成數(shù)倍級(jí)提升。

文字交互僅是大模型用量的起點(diǎn),未來圖像、視頻等多種形態(tài)帶動(dòng)算力需求大幅提升。ChatGPT 目前仍主要停留在文字交互層面,但圖像、視頻等領(lǐng)域也可使用 Transformer 大模型,所需算力規(guī)模遠(yuǎn)大于文字交互。例如 OpenAI 的繪畫 AI模型 DALL-E2,其可直接根據(jù)文字生成逼真的圖像,也可以對現(xiàn)有圖像上根據(jù)文字指令創(chuàng)建新作品。

3e3761fc-b320-11ed-bfe3-dac502259ad0.png

03

上游存儲(chǔ)/PCB/模擬受益 ChatGPT 需求新增量

ChatGPT 拉動(dòng)服務(wù)器需求快速增長的同時(shí),將直接拉動(dòng)算力芯片需求增長,我們于下文中詳細(xì)對算力芯片需求進(jìn)行了介紹。此外,服務(wù)器需求的增長,也將帶動(dòng)上游存儲(chǔ)/PCB/模擬的需求快速增長。

1)ChatGPT 新時(shí)代,服務(wù)器需求帶動(dòng) DDR5 和 HBM 用量快速提升。隨著ChatGPT 等應(yīng)用開啟 AI 新時(shí)代,全球數(shù)據(jù)生成、儲(chǔ)存、處理量有望呈等比級(jí)數(shù)增長,而 DDR5 內(nèi)存和高帶寬存儲(chǔ)器(HBM)可支持更高速率的帶寬。對于計(jì)算-內(nèi)存而言,DDR5 標(biāo)準(zhǔn)的最高速率是 DDR4 的兩倍,而 HBM 基于 TSV 和芯片堆疊技術(shù)的堆疊 DRAM 架構(gòu),可實(shí)現(xiàn)高于 256GBps 的突破性帶寬。深度學(xué)習(xí)人工智能的快速發(fā)展對數(shù)據(jù)運(yùn)算的要求越來越高,隨著數(shù)據(jù)指數(shù)式增長,內(nèi)存墻對于計(jì)算速度的影響越來越凸顯,而 DDR5 和 HBM 技術(shù)可以幫助數(shù)據(jù)中心突破“內(nèi)存墻”瓶頸。我們看好在 ChatGPT 的帶動(dòng)下,服務(wù)器 DDR5 和 HBM 的滲透率有望加速提升

3e6a3050-b320-11ed-bfe3-dac502259ad0.png

2) ChatGPT 帶動(dòng) PCB 需求新增量。服務(wù)器內(nèi)部涉及 PCB 的主要部件包括主板、電源背板、網(wǎng)卡、Riser 卡、硬盤背板等,PCB 在 AI 服務(wù)器應(yīng)用中對板厚、層數(shù)、工藝等有著更高的要求,具有高層數(shù)、高密度及高傳輸速率的特點(diǎn)。

PCB 層數(shù)越多,設(shè)計(jì)越靈活,能夠?qū)﹄娐菲鸬礁玫乜棺枳饔?,更易于?shí)現(xiàn)芯片之間地高速傳輸,單位價(jià)值量也越高。PCIe3.0 接口信號(hào)傳輸速率為 8GT/s,對應(yīng)的服務(wù)器 PCB 板為 8-10 層;PCIe4.0 接口的傳輸速率為 16GT/s,使用的服務(wù)器 PCB 層數(shù)為 12-14 層,目前滲透率在快速提高,如英偉達(dá) DGXA100 系列服務(wù)器就采用了 PCIe4.0 接口;服務(wù)器平臺(tái)下一步將升級(jí)到 PCIe 5.0,傳輸速率為32GT/s,PCB 的層數(shù)可達(dá) 18 層。隨著 ChatGPT 對算力要求的提升,預(yù)計(jì)服務(wù)器PCB 將呈量價(jià)齊升的態(tài)勢,保守估計(jì)每臺(tái)服務(wù)器的 PCB 價(jià)值量可達(dá) 4000 元。

3e9d4ea4-b320-11ed-bfe3-dac502259ad0.png

3)ChatGPT 拉動(dòng)服務(wù)器建設(shè)的同時(shí),亦帶來大量電源管理芯片需求。從市電輸入服務(wù)器開始,到電流輸入 CPU元器件止,大體上需要經(jīng)過三次電流的改變。第一次是經(jīng)過服務(wù)器的電源模塊,將市電從交流電轉(zhuǎn)換成 48V 的直流電(ACDC)。接下來,該直流電會(huì)被輸送至 DC/DC 變換器,進(jìn)一步被轉(zhuǎn)換成 12V,提供給中間母線結(jié)構(gòu)(IBA)。最后該 12V 母線電壓將被分配至板上多個(gè)負(fù)載點(diǎn)(PoL)變換器中,為芯片或子電路提供電源。不過由于主板上 CPU 等內(nèi)核器件與風(fēng)扇等

其他器件對功率的要求各不相同,因此需要分開處理。對于 CPU 等內(nèi)核器件,往往需要使用多相電源供電,而對于部分功率較小且比較穩(wěn)定的其他器件,不需要使

用多相電源,只需要使用 Buck 進(jìn)行降壓就可以對其進(jìn)行供電。具體而言,主板上的電源管理 IC 主要包括 eFuse/熱插拔、多相電源、LDO 與降壓 Buck 等四類。

3f82a490-b320-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    12

    文章

    9160

    瀏覽量

    85425
  • ai技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    1275

    瀏覽量

    24327
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1089

    瀏覽量

    6516
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1561

    瀏覽量

    7673

原文標(biāo)題:ChatGPT 引領(lǐng) AI 技術(shù)變革,帶動(dòng)服務(wù)器需求增量

文章出處:【微信號(hào):S3ITIA-,微信公眾號(hào):安防監(jiān)控存儲(chǔ)聯(lián)盟】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    ChatGPT短暫“罷工”,云服務(wù)器還能用嗎?

    日,備受歡迎的AI聊天機(jī)器人ChatGPT突然遭遇了一次短暫的服務(wù)中斷,這讓不少用戶心生疑慮:云服務(wù)器,這個(gè)支撐起無數(shù)互聯(lián)網(wǎng)應(yīng)用的強(qiáng)大后盾,究竟還靠譜嗎?
    的頭像 發(fā)表于 12-12 11:45 ?129次閱讀

    超微電腦AI服務(wù)器出貨數(shù)據(jù)彰顯強(qiáng)勁需求

    超微電腦(Super Micro Computer)周一公布的出貨數(shù)據(jù),揭示了客戶對AI服務(wù)器的巨大需求。據(jù)超微透露,公司近期為多個(gè)大型AI工廠及云
    的頭像 發(fā)表于 10-08 14:54 ?357次閱讀

    什么是AI服務(wù)器?AI服務(wù)器的優(yōu)勢是什么?

    AI服務(wù)器是一種專門為人工智能應(yīng)用設(shè)計(jì)的服務(wù)器,它采用異構(gòu)形式的硬件架構(gòu),通常搭載GPU、FPGA、ASIC等加速芯片,利用CPU與加速芯片的組合來滿足高吞吐量互聯(lián)的需求,為自然語言處
    的頭像 發(fā)表于 09-21 11:43 ?863次閱讀

    AI服務(wù)器:開啟智能計(jì)算新時(shí)代

    一、AI服務(wù)器的定義與特點(diǎn) AI服務(wù)器的定義 AI服務(wù)器是一種基于云計(jì)算
    的頭像 發(fā)表于 08-09 16:08 ?875次閱讀

    探索新潮流 — AI服務(wù)器引領(lǐng)數(shù)據(jù)中心的發(fā)展

    電子發(fā)燒友網(wǎng)站提供《探索新潮流 — AI服務(wù)器引領(lǐng)數(shù)據(jù)中心的發(fā)展.pdf》資料免費(fèi)下載
    發(fā)表于 07-26 13:35 ?363次下載

    AI服務(wù)器的特點(diǎn)和關(guān)鍵技術(shù)

    AI服務(wù)器,即人工智能服務(wù)器,是一種專門設(shè)計(jì)用于運(yùn)行和加速人工智能(AI)算法與模型的硬件設(shè)備。隨著人工智能技術(shù)的快速發(fā)展和普及,
    的頭像 發(fā)表于 07-17 16:34 ?1617次閱讀

    ai服務(wù)器是什么架構(gòu)類型

    AI服務(wù)器,即人工智能服務(wù)器,是專門為人工智能應(yīng)用設(shè)計(jì)的高性能計(jì)算服務(wù)器。AI服務(wù)器的架構(gòu)類型有
    的頭像 發(fā)表于 07-02 09:51 ?1074次閱讀

    ai服務(wù)器和通用服務(wù)器的區(qū)別在哪

    AI服務(wù)器和通用服務(wù)器的區(qū)別主要體現(xiàn)在以下幾個(gè)方面: 硬件配置 AI服務(wù)器和通用服務(wù)器在硬件配置
    的頭像 發(fā)表于 07-02 09:46 ?1049次閱讀

    差分晶振在AI服務(wù)器中的應(yīng)用案例

    隨著ChatGPT技術(shù)不斷發(fā)展和應(yīng)用,我國AI服務(wù)器市場保持較快增速(預(yù)計(jì) 2023年我國服務(wù)器市場規(guī)模將增至308億美元),而
    發(fā)表于 06-17 15:15 ?1次下載

    英飛凌推出全新CoolSiC? 400V MOSFET系列,滿足AI服務(wù)器需求

    擴(kuò)展至400V領(lǐng)域,并推出了全新的CoolSiC?400VMOSFET系列。這一創(chuàng)新產(chǎn)品不僅滿足了AI服務(wù)器電源(PSU)日益增長的功率需求,同時(shí)保持了服務(wù)器機(jī)架規(guī)
    的頭像 發(fā)表于 05-29 11:36 ?794次閱讀
    英飛凌推出全新CoolSiC? 400V MOSFET系列,滿足<b class='flag-5'>AI</b><b class='flag-5'>服務(wù)器</b><b class='flag-5'>需求</b>

    RISC-V在服務(wù)器方面應(yīng)用與發(fā)展前景

    RISC-V在服務(wù)器方面的應(yīng)用與發(fā)展前景十分廣闊。作為一種開源、開放、簡潔、靈活的指令集,RISC-V近年來在芯片產(chǎn)業(yè)中發(fā)展迅速,并逐漸引領(lǐng)新一輪處理芯片技術(shù)與產(chǎn)業(yè)的
    發(fā)表于 04-28 09:04

    RISC-V在服務(wù)器方面的應(yīng)用與發(fā)展前景如何?剛畢業(yè)的學(xué)生才開始學(xué)來的及嗎?

    RISC-V在服務(wù)器方面的應(yīng)用與發(fā)展前景十分廣闊。作為一種開源、開放、簡潔、靈活的指令集,RISC-V近年來在芯片產(chǎn)業(yè)中發(fā)展迅速,并逐漸引領(lǐng)新一輪處理芯片技術(shù)與產(chǎn)業(yè)的
    發(fā)表于 04-28 08:49

    AI引領(lǐng)存儲(chǔ)市場變革 HBM與DDR5需求暴增

    AI成了存儲(chǔ)市場的最大增量。開源證券表示,搭載容量方面,隨著AI在各類領(lǐng)域的應(yīng)用延伸,手機(jī)、服務(wù)器、PC中DRAM和NAND單機(jī)平均搭載容量均有增長,其中,
    發(fā)表于 03-06 11:41 ?445次閱讀

    【國產(chǎn)FPGA+OMAPL138開發(fā)板體驗(yàn)】(原創(chuàng))6.FPGA連接ChatGPT 4

    訪問ChatGPT 4這樣的AI模型是非常復(fù)雜的,因?yàn)檫@涉及到大量的數(shù)據(jù)傳輸、協(xié)議實(shí)現(xiàn)、并行處理、優(yōu)化等等。更重要的是,ChatGPT 4這樣的模型通常是運(yùn)行在強(qiáng)大的服務(wù)器集群上。不過
    發(fā)表于 02-14 21:58

    生成式AI商業(yè)進(jìn)程加速,將帶動(dòng)芯片需求增

    成式人工智能芯片銷售額可能達(dá)到500億美元以上。 ? 生成式AI 帶動(dòng)芯片需求增長 ? 生成式人工智能(GAI)是利用復(fù)雜的算法、模型和規(guī)則,從大規(guī)模數(shù)據(jù)集中學(xué)習(xí),以創(chuàng)造新的原創(chuàng)內(nèi)容的人工智能
    的頭像 發(fā)表于 01-30 00:47 ?5459次閱讀