0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AMD甩出最強(qiáng)AI芯片 單個GPU跑大模型

jf_GctfwYN7 ? 來源:芯東西 ? 2023-06-20 10:47 ? 次閱讀

專為生成式AI設(shè)計(jì)的GPU:HBM密度是英偉達(dá)H100的2.4倍,帶寬是英偉達(dá)H100的1.6倍。

英偉達(dá)的頭號勁敵AMD,終于放出了令人期待已久的AI大招。

2014年,蘇姿豐成為AMD CEO時,這家芯片企業(yè)正瀕臨生存危機(jī),裁員約1/4,股價徘徊在2美元。隨后在蘇姿豐的掌舵之下,AMD完成了漂亮的轉(zhuǎn)身,9年來股價飆升近30倍,對英偉達(dá)和英特爾兩家頂級芯片巨頭形成了制衡。 隨著生成式AI颶風(fēng)席卷全球,英偉達(dá)GPU被各家大廠爭相搶購,焦點(diǎn)很快轉(zhuǎn)移到AMD身上——AMD能否生產(chǎn)出足夠強(qiáng)大的AI芯片來打破英偉達(dá)近乎壟斷的市場地位,抓住新一波AI浪潮? 今日,AMD交出階段性答卷。

在展示下一代AI芯片MI300X加速器時,蘇姿豐滿面笑容地說:“我愛這顆芯片”。 MI300X是一個純GPU版本,采用AMD CDNA 3技術(shù),使用多達(dá)192 GB的HBM3高帶寬內(nèi)存來加速大型語言模型和生成式AI計(jì)算。 AMD主要客戶將在第三季度開始試用MI300X,第四季度開始全面生產(chǎn)。另一種型號Instinct MI300A現(xiàn)在正在向客戶發(fā)售。 蘇姿豐說,人工智能是AMD“最大、最具戰(zhàn)略意義的長期增長機(jī)會”。 現(xiàn)場,AMD與明星AI獨(dú)角獸企業(yè)Hugging Face宣布了一項(xiàng)新的合作伙伴關(guān)系,為AMD的CPU、GPU和其他AI硬件優(yōu)化他們的模型。

除了AI芯片外,AMD還推出專為云計(jì)算和超大規(guī)模用戶設(shè)計(jì)的全新EPYC服務(wù)器處理器,代號為Bergamo,每個插槽最多包含128個內(nèi)核,并針對各種容器化工作負(fù)載進(jìn)行了優(yōu)化。 亞馬遜旗下云計(jì)算部門AWS、甲骨文云、Meta、微軟Azure的高管均來到現(xiàn)場,分享在其數(shù)據(jù)中心使用AMD芯片及軟件的感受。

01. 加速生成式AI: 192GB HBM3,單個GPU跑大模型

此前,AMD Instinct GPU已經(jīng)被許多世界上最快的超級計(jì)算機(jī)采用。

MI300X加速器是AMD Instinct MI300系列的新成員,提供一個僅有GPU配置的芯片版本。

MI300X及其CDNA架構(gòu)專為大型語言模型和其他先進(jìn)AI模型而設(shè)計(jì),將12個5nm chiplets封裝在一起,共有1530億晶體管。

這款全新AI芯片舍棄了APU的24個Zen內(nèi)核和I/O芯片,轉(zhuǎn)而采用更多的CDNA 3 GPU和更大的192GB HBM3,提供5.2 TB/s的內(nèi)存帶寬和896GB/s的無限帶寬。

MI300X的HBM密度是英偉達(dá)H100的2.4倍,帶寬是英偉達(dá)H100的1.6倍,這意味著AMD可以運(yùn)行比英偉達(dá)芯片更大的模型。

AMD演示了在單個MI300X GPU上運(yùn)行擁有400億個參數(shù)的Falcon-40B大型語言模型,讓它寫了一首關(guān)于舊金山的詩。

“模型尺寸變得越來越大,你需要多個GPU來運(yùn)行最新的大型語言模型,”蘇姿豐說,隨著AMD芯片上內(nèi)存增加,開發(fā)者將不需要那么多GPU。

另一款MI300A被蘇姿豐稱作“面向AI和高性能計(jì)算的全球首款A(yù)PU加速器”,將多個CPU、GPU和高帶寬內(nèi)存封在一起,在13個chiplets上擁有1460億顆晶體管。

MI300A采用5nm和6nm制程、CDNA 3 GPU架構(gòu),搭配24個Zen 4核心、128GB HBM3,相比MI250提供了8倍以上的性能和5倍以上的效率。 AMD還公布了一種AMD Infinity架構(gòu)。該架構(gòu)將8個 MI300X加速器連接在一個考慮了AI推理和訓(xùn)練的標(biāo)準(zhǔn)系統(tǒng)中,提供共1.5TB HBM3內(nèi)存。

據(jù)臺媒報道,AMD的Instinct MI300系列以及英偉達(dá)的H100/H800系列GPU都在采用臺積電先進(jìn)的后端3D封裝方法CoWoS,導(dǎo)致臺積電CoWoS產(chǎn)能短缺將持續(xù)存在。臺積電目前有能力每月處理大約8000片CoWoS晶圓,其中英偉達(dá)和AMD合計(jì)占了大約70%到80%。

此外,英偉達(dá)近年備受開發(fā)者偏愛的一大關(guān)鍵護(hù)城河是CUDA軟件。AMD 總裁Victor Peng也展示了AMD在開發(fā)軟件生態(tài)方面所做的努力。 AMD計(jì)劃在AI軟件生態(tài)系統(tǒng)開發(fā)中采用“開放(Open)、成熟(Proven)、就緒(Ready)”的理念。

AMD的ROCm是一套完整的庫和工具,用于優(yōu)化AI軟件棧。不同于CUDA,這是一個開放的平臺。

AMD還分享了PyTorch與ROCm的合作。新的PyTorch 2.0的速度幾乎是之前版本的兩倍。AMD是PyTorch基金會的創(chuàng)始成員之一。

AMD正在不斷優(yōu)化ROCm。Victor Peng說:“雖然這是一段旅程,但我們在構(gòu)建可與模型、庫、框架和工具的開放生態(tài)系統(tǒng)協(xié)同工作的強(qiáng)大軟件棧方面取得了真正的巨大進(jìn)步。”

02. 云原生處理器Bergamo: 128核,256個線程,最高vCPU密度

再來看下AMD的數(shù)據(jù)中心CPU。 蘇姿豐首先分享了AMD EPYC處理器的進(jìn)展,特別是在全球范圍內(nèi)可用的云計(jì)算實(shí)例方面。

她強(qiáng)調(diào)說,AMD第四代EPYC Genoa處理器在云計(jì)算工作負(fù)載方面的性能是英特爾競品的1.8倍,在企業(yè)工作負(fù)載方面的性能提高到1.9倍。

絕大多數(shù)AI都在CPU上運(yùn)行,AMD稱,與英特爾至強(qiáng)8490H相比,第四代EPYC在性能上遙遙領(lǐng)先,性能優(yōu)勢高出1.9倍。

蘇姿豐說,云原生處理器以吞吐量為導(dǎo)向,需要最高的性能、可擴(kuò)展性、計(jì)算密度和能效。

新發(fā)布的Bergamo,便是云原生處理器市場的入口。

該芯片有820億顆晶體管,提供了最高的vCPU密度。

在大散熱器下,有一個表面看起來非常像以前的EPYC的芯片,跟與Rome或Milan一樣有中央I/O芯片和8個核心復(fù)合芯片(CCD)。

Bergamo的每個插槽有多達(dá)128個核心、256個線程,分布在8個CCD上,每個CCD的核心數(shù)量是Genoa 16個核心的兩倍,采用比標(biāo)準(zhǔn)Zen 4內(nèi)核提供更高密度的全新Zen 4c核心設(shè)計(jì),并支持一致的x86 ISA。

“Zen 4c針對性能和功耗的最佳平衡點(diǎn)進(jìn)行了優(yōu)化,這為我們提供了更好的密度和能效,”蘇姿豐在演講中談道,“結(jié)果設(shè)計(jì)面積縮小了35%,每瓦性能顯著提高?!?/p>

Bergamo現(xiàn)在正在向AMD的云客戶發(fā)貨。AMD還分享了第四代EPYC 9754與英特爾至強(qiáng)8490H的性能、密度和能效和對比:

除了Bergamo的新核心和Chiplet架構(gòu)之外,該處理器與Genoa有很多共同之處,包括支持12通道DDR5內(nèi)存、最新PCIe 5.0、單插槽或雙插槽配置等等。 不過,多核心不再只是AMD處理器獨(dú)有的特色。

不久之前,數(shù)據(jù)中心處理器新起之秀Ampere Computing剛推出擁有多達(dá)192個單線程Ampere核心的Ampere One系列處理器。

英特爾也計(jì)劃在2024年初推出內(nèi)核優(yōu)化的至強(qiáng)處理器Sierra Forest,將內(nèi)置144個高效能核心。 AMD還展示了其最新的緩存堆疊X芯片,代號為Genoa-X,現(xiàn)已上市。

該芯片針對高性能計(jì)算工作負(fù)載,包括計(jì)算流體動力學(xué)、電子設(shè)計(jì)自動化、有限元分析、地震層析成像及其他帶寬敏感型工作負(fù)載,這些工作負(fù)載受益于大量共享緩存。

Genoa-X CPU基于AMD的標(biāo)準(zhǔn)Genoa平臺,采用AMD 3D V-Cache技術(shù),通過在每個CCD上垂直堆疊SRAM模塊來提高可用的L3緩存。

該芯片可提供多達(dá)96個內(nèi)核和總計(jì)1.1GB的L3高速緩存,每個CCD上堆疊了一個64MB SRAM塊。 據(jù)AMD披露的數(shù)據(jù),在各種計(jì)算流體動力學(xué)和有限元分析工作負(fù)載方面,與英特爾最高規(guī)格的60核Sapphire Rapids至強(qiáng)相比,Genoa-X緩存提升的性能提高到2.2倍2.9倍。

03. 即將推出全新DPU

最后,AMD簡要介紹了其網(wǎng)絡(luò)基礎(chǔ)設(shè)施。 去年AMD以19億美元收購Pensando,進(jìn)入DPU賽道。AMD解釋了如何使用其DPU來減少數(shù)據(jù)中心的網(wǎng)絡(luò)開銷。

AMD將其P4 DPU架構(gòu)稱作“世界上最智能的DPU”,并稱其Pensando SmartNIC是新數(shù)據(jù)中心架構(gòu)不可或缺的一部分。

AMD還在現(xiàn)場展示了與Aruba Networks共同開發(fā)的智能交換機(jī)。AMD計(jì)劃將P4 DPU卸載集成到網(wǎng)絡(luò)交換機(jī)本身,從而提供機(jī)架級服務(wù)。

AMD最新的DPU旨在從CPU卸載網(wǎng)絡(luò)、安全和虛擬化任務(wù),與當(dāng)前一代P4 DPU相比將提供更高的性能和能效。 其DPU已得到微軟、IBM云、甲骨文云等許多主要云提供商以及VMware虛擬機(jī)管理程序等軟件套件的支持。 AMD打算在今年晚些時候推出Giglio DPU之前擴(kuò)大兼容軟件列表,推出“芯片軟件開發(fā)工具包”,以便用戶更輕松地在其DPU上部署工作負(fù)載。

04. 結(jié)語:到2027年,數(shù)據(jù)中心AI加速器 市場規(guī)模將超過1500億美元

全球數(shù)據(jù)中心GPU和CPU的頭部企業(yè)英偉達(dá)和英特爾均在強(qiáng)調(diào)其加速AI的實(shí)力。作為這兩條賽道“萬年老二”的AMD,也在競相滿足對AI計(jì)算日益增長的需求,并通過推出適應(yīng)最新需求的數(shù)據(jù)中心GPU來挑戰(zhàn)英偉達(dá)在新興市場的主導(dǎo)地位。

生成式AI和大型語言模型的應(yīng)用熱潮正在將數(shù)據(jù)中心推向極限。截至目前,英偉達(dá)在提供處理這些工作負(fù)載所需的技術(shù)方面具有優(yōu)勢。根據(jù)市場調(diào)研機(jī)構(gòu)New Street Research的數(shù)據(jù),英偉達(dá)占據(jù)了可用于機(jī)器學(xué)習(xí)的GPU市場的95%。 “我們?nèi)蕴幱贏I生命周期的非常、非常早的階段,”蘇姿豐預(yù)測,到2027年,數(shù)據(jù)中心AI加速器總潛在市場規(guī)模將增長5倍,從今年的300億美元左右以超過50%的復(fù)合年增長率增長到2027年的1500億美元以上。

AMD并未透露兩款MI300新芯片的價格,但這可能會給英偉達(dá)帶來一定價格壓力,之前H100價格據(jù)傳高達(dá)30000美元乃至更多。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • amd
    amd
    +關(guān)注

    關(guān)注

    25

    文章

    5485

    瀏覽量

    134404
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    804

    瀏覽量

    37990
  • 晶體管
    +關(guān)注

    關(guān)注

    77

    文章

    9728

    瀏覽量

    138641
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3824

    瀏覽量

    91590
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1901

    瀏覽量

    35138

原文標(biāo)題:1530億顆晶體管!AMD甩出最強(qiáng)AI芯片,單個GPU跑大模型

文章出處:【微信號:IC修真院,微信公眾號:IC修真院】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AMD最強(qiáng)AI芯片,性能強(qiáng)過英偉達(dá)H200,但市場仍不買賬,生態(tài)是最大短板?

    。 ? 其中,全新旗艦AI芯片的型號為AMD Instinct MI325X GPU,雖然仍然是采用CDNA 3架構(gòu),但是相較于AMD In
    的頭像 發(fā)表于 10-14 01:32 ?3512次閱讀
    <b class='flag-5'>AMD</b><b class='flag-5'>最強(qiáng)</b><b class='flag-5'>AI</b><b class='flag-5'>芯片</b>,性能強(qiáng)過英偉達(dá)H200,但市場仍不買賬,生態(tài)是最大短板?

    小米加速布局AI模型,搭建GPU萬卡集群

    近日,有消息稱小米正在緊鑼密鼓地搭建自己的GPU萬卡集群,旨在加大對AI模型的投入力度。據(jù)悉,小米的大模型團(tuán)隊(duì)在成立之初就已經(jīng)擁有了6500張GP
    的頭像 發(fā)表于 12-28 14:25 ?231次閱讀

    GPU是如何訓(xùn)練AI模型

    AI模型的訓(xùn)練過程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU
    的頭像 發(fā)表于 12-19 17:54 ?189次閱讀

    《CST Studio Suite 2024 GPU加速計(jì)算指南》

    GPU不能在單個主機(jī)系統(tǒng)中組合使用。 - AMD GPU:目前只有時域求解器(FIT)支持AMD G
    發(fā)表于 12-16 14:25

    訓(xùn)練AI模型需要什么樣的gpu

    訓(xùn)練AI模型需要選擇具有強(qiáng)大計(jì)算能力、足夠顯存、高效帶寬、良好散熱和能效比以及良好兼容性和擴(kuò)展性的GPU。在選擇時,需要根據(jù)具體需求進(jìn)行權(quán)衡和選擇。
    的頭像 發(fā)表于 12-03 10:10 ?170次閱讀

    《算力芯片 高性能 CPUGPUNPU 微架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    CPU、GPU的演進(jìn)歷程,AI專用芯片或?qū)⒁I(lǐng)未來計(jì)算平臺的新方向。正如愛因斯坦所說:\"想象力比知識更重要\" —— 在芯片設(shè)計(jì)領(lǐng)域,創(chuàng)新思維帶來的突破往往令人驚嘆。
    發(fā)表于 11-24 17:12

    AMD發(fā)布10億參數(shù)開源AI模型OLMo

    AMD公司近日宣布了一項(xiàng)重大進(jìn)展,推出了首個完全開放的10億參數(shù)語言模型系列——AMD OLMo。這一舉措為開發(fā)者和研究人員提供了強(qiáng)大的AI研究工具,有助于推動
    的頭像 發(fā)表于 11-12 18:08 ?476次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?370次閱讀

    AMD發(fā)布新一代AI芯片MI325X

    在舊金山舉辦的Advancing AI 2024大會上,AMD正式推出了其新一代AI芯片——GPU AM
    的頭像 發(fā)表于 10-11 15:55 ?448次閱讀

    英偉達(dá)發(fā)布AI模型 Llama-3.1-Nemotron-51B AI模型

    模型單個H100 GPU上的表現(xiàn)非常優(yōu)秀,在推理過程中可以在單個 GPU 上運(yùn)行 4 倍以上的工作負(fù)載。這使得單片H100
    的頭像 發(fā)表于 09-26 17:30 ?639次閱讀

    AI初出企業(yè)Cerebras已申請IPO!稱發(fā)布的AI芯片GPU更適合大模型訓(xùn)練

    美國加州,專注于研發(fā)比GPU更適用于訓(xùn)練AI模型的晶圓級芯片,為復(fù)雜的AI應(yīng)用構(gòu)建計(jì)算機(jī)系統(tǒng),并與阿布扎比科技集團(tuán)G42等機(jī)構(gòu)合作構(gòu)建超級計(jì)
    的頭像 發(fā)表于 06-26 00:09 ?2955次閱讀
    <b class='flag-5'>AI</b>初出企業(yè)Cerebras已申請IPO!稱發(fā)布的<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>比<b class='flag-5'>GPU</b>更適合大<b class='flag-5'>模型</b>訓(xùn)練

    為什么AI往往用GPU而不是CPU?

    GPU的能力,并且支持的GPU數(shù)量越多,就代表其AI性能越強(qiáng)大。那么問題來了,為什么是GPU而不是CPU?GPU難道不是我們?nèi)粘J褂玫碾娔X里
    的頭像 發(fā)表于 04-24 08:27 ?1994次閱讀
    為什么<b class='flag-5'>跑</b><b class='flag-5'>AI</b>往往用<b class='flag-5'>GPU</b>而不是CPU?

    國產(chǎn)GPUAI模型領(lǐng)域的應(yīng)用案例一覽

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)近一年多時間,隨著大模型的發(fā)展,GPUAI領(lǐng)域的重要性再次凸顯。雖然相比英偉達(dá)等國際大廠,國產(chǎn)GPU起步較晚、聲勢較小。不過近幾年,國內(nèi)不少
    的頭像 發(fā)表于 04-01 09:28 ?3960次閱讀
    國產(chǎn)<b class='flag-5'>GPU</b>在<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>領(lǐng)域的應(yīng)用案例一覽

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    現(xiàn)場可編程門陣列 (FPGA) 解決了 GPU 在運(yùn)行深度學(xué)習(xí)模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達(dá) (Nvidia) 和 AMD 等公司的股價也大幅
    發(fā)表于 03-21 15:19

    海信發(fā)布電視行業(yè)最強(qiáng)中文大模型,開啟電視AI新時代

    3月15日,“海信視像 AI美好生活”全場景顯示新品發(fā)布會上,海信正式發(fā)布了自研星海大模型,這也是目前電視行業(yè)最強(qiáng)中文大模型。
    的頭像 發(fā)表于 03-18 14:24 ?388次閱讀