0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ASIC和GPU,誰才是AI計算的最優(yōu)解?

時光流逝最終成了回憶 ? 來源:電子發(fā)燒友網(wǎng) ? 作者:周凱揚 ? 2023-12-03 08:31 ? 次閱讀

電子發(fā)燒友網(wǎng)報道(文/周凱揚)隨著AI計算開始有著風頭蓋過通用計算開始,不少芯片廠商都將其視為下一輪技術(shù)革新。CPUGPU、FPGAASIC紛紛投入到這輪AI革命中來,但斬獲的戰(zhàn)果卻是有多有少。由于承載了絕大多數(shù)AI計算負載,GPU和ASIC成了市面上最炙手可熱的計算硬件。表面上來看,這是市場提供了兩種不同的靈活選擇,但面對利潤如此高的AI市場,兩者總得爭一個高下。

根據(jù)GMInsight的統(tǒng)計,2022年全球AI芯片市場規(guī)模超過150億美元,預(yù)計將在2032年超過4000億美元,年復(fù)合增長率高達35%。而在去年出貨量最大的依然是GPU,占比高達47%左右,第二名為占比34%的CPU,其次才是ASIC與FPGA,但ASIC已經(jīng)隱隱有迎頭趕超之勢。

選擇通用性還是專用性

從2016年左右,就一直流傳著這樣一個說法,那就是AI計算作為特定負載的高性能計算,其未來肯定是屬于ASIC這樣的“專用芯片”。這個說法似乎也沒錯,畢竟我們轉(zhuǎn)而看下目前排名前三的云巨頭們,亞馬遜、微軟和谷歌紛紛都選擇了自研ASIC,比如亞馬遜的Trainium和Inferentia、谷歌的TPU、英特爾的Gaudi以及微軟的Maia等。

Gaudi 2 /英特爾


要從通用性和專用性的角度來看,ASIC確實是最“?!钡哪莻€。即便是在GPU之外,CPU、FPGA的通用性也要遠高于ASIC,但CPU并不適用于純AI負載,更多的是給AI計算起到輔助作用,其提供的算力占比并不算高,哪怕是英偉達的Grace這種宣稱為AI打造的CPU。而FPGA的應(yīng)用市場則比較固定,比如汽車、工業(yè)和金融科技等,難以在大規(guī)模的服務(wù)器端進行部署。

由此看來,ASIC確實是上佳的硬件之選。尤其是目前LLM占據(jù)AI應(yīng)用的主流,算法逐漸固定,反倒是專用的ASIC在性能、能效上占了上風,不再需要像過去一樣,一代算法一代芯片地不斷迭代。且隨著云服務(wù)廠商開始擴大AI服務(wù)器規(guī)模,ASIC顯然具備更強的擴展性,大量出貨后也能控制好制造成本。

第一代TPU /谷歌


而且從谷歌的TPU設(shè)計來看,借助先進的接口IP、Chiplet和EDA工具,在已有架構(gòu)上進行迭代設(shè)計也開始變得簡單,更不用說谷歌在TensorFlow上有著深厚的積累。云服務(wù)廠商幾乎評估了市面上所有具備商用可行性的AI芯片,如果他們沒有這個底氣是斷然不會選擇大規(guī)模部署的,而他們對ASIC的看好恰好說明了這一點。英特爾這幾年開始分離各種業(yè)務(wù),而Habana Labs的ASIC AI芯片業(yè)務(wù)雖然沒有創(chuàng)造可觀的營收,英特爾卻依然看好這一業(yè)務(wù),也證明了ASIC的前景無限。

市場和開發(fā)者依然偏愛GPU

但從市場和開發(fā)者角度來看,GPU依舊是最吃香的,且牢牢占據(jù)主導(dǎo)地位,這又是為什么呢?前英特爾圖形部門負責人Raja Koduri也發(fā)表了一些自己的見解。首先,專用芯片的“專用”并不算穩(wěn)定,與絕大多數(shù)人認知中不一樣的是,AI計算并非一成不變,也并不是簡單的一堆矩陣乘法運算。

而反觀GPU這邊,其系統(tǒng)架構(gòu)已經(jīng)經(jīng)過了20多年的演進,比如頁表、內(nèi)存管理、中斷處理和調(diào)試等,這些已經(jīng)成了支持商用軟件棧落地的必要因素。而ASIC在這方面確實有所欠缺,反而將不少重擔甩給了軟件開發(fā)者。而Raja認為,如今并沒有太多年輕的軟件開發(fā)者進入行業(yè),所以絕大多數(shù)公司都還在爭搶為數(shù)不多的老將。

需要注意的是,Raja此處指的軟件開發(fā)者并非那些模型/算法開發(fā)者,在這類軟件開發(fā)者上依然新秀層出不窮,但反觀系統(tǒng)軟件工程師,比如底層驅(qū)動開發(fā)者,就確實相對較少了。英偉達雖說也常有人員變動,但其在這類軟件的開發(fā)上,至少比初創(chuàng)企業(yè)領(lǐng)先10多年。

再拿常見的AI基準測試MLPerf為例,這個對訓(xùn)練和推理性能提供公平評估的榜單,幾乎所有的MLPerf應(yīng)用都是原生基于CUDA開發(fā)。且原本GPU在AI計算效能上的劣勢,也隨著英偉達這幾代不斷添加TensorCore而得到了改善。ASIC的AI加速器雖然理論性能占優(yōu),但始終沒法拉開較大差距。

對AI硬件的未來憧憬


即便目前AI硬件生態(tài)向好,但要想各類硬件都能活下去創(chuàng)造良性的競爭,我們也可以做一些“愿望清單”。首先,雖然各大AI芯片廠商都在宣揚自己在大模型下的優(yōu)異表現(xiàn),然而對于那些沒法全塞進內(nèi)存里的大模型的訓(xùn)練和推理來說,英偉達的GPU依然是唯一的可行方案,其他廠商明年還是應(yīng)該繼續(xù)努力。

第二則是軟件生態(tài)的兼容性,對于GPU廠商、云服務(wù)廠商之外的第三方AI芯片廠商,還是應(yīng)該加強對各類模型的兼容性,特別是要做到開箱即用。比如英特爾的Gaudi現(xiàn)在已經(jīng)投入云服務(wù)商的服務(wù)器中正式使用了,且從性能角度來看著實不賴,但對于PyTorch的支持并不像英偉達的CUDA和AMD的ROCm般順暢。連英特爾都受制于此,可想而知其他的ASIC AI芯片廠商要付出多大的成本和精力了。

另一個做法就是AI芯片廠商自己下場做大模型,如果廠商有這個軟件開發(fā)實力的話,自己根據(jù)自研芯片開發(fā)大模型是最好的,無論模型的架構(gòu)和芯片的架構(gòu)怎么演進,都在自己的把控范圍內(nèi)。畢竟像浪潮這樣的服務(wù)器廠商,都已經(jīng)下場開發(fā)大模型了,更為上游的谷歌也已經(jīng)投身其中。但這種方式也存在一個問題,那就是其模型和硬件往往都會選擇閉源,這也就意味著放棄了龐大的開源開發(fā)生態(tài),很難帶動相關(guān)AI應(yīng)用的真正騰飛。

第三是性能優(yōu)化,在AI芯片廠商與軟件開發(fā)社區(qū)的不懈努力下,我們看到不同硬件之間的軟件兼容性已經(jīng)有了可觀的改善,但性能問題仍然擺在臺前,即便是英特爾、AMD和蘋果這樣的大廠也沒法徹底突破。所以在解決完兼容性的問題后,AI芯片廠商還是要持續(xù)投入硬件利用率的優(yōu)化中去。當然了,如果GPU之外的ASIC真的能做到GPU三倍以上的性能,以力大磚飛之勢力壓GPU也不是不可能。

寫在最后

我們現(xiàn)在處于AI硬件的“寒武紀爆發(fā)期”,從EDA廠商和晶圓廠的業(yè)績就可以看出,AI芯片無論是新的設(shè)計還是制造都沒有止步,市面上公開提供的選擇就足以令人眼花繚亂了,還有不少初創(chuàng)企業(yè)處于“隱身階段”,或是在等待先進封裝的產(chǎn)能。不管如何,2024年都應(yīng)該會有更多的產(chǎn)品面市。

AI應(yīng)用開發(fā)者固然沒法一個個買來測試,好在云服務(wù)廠商提供了AI服務(wù)器的租賃選項,在上面跑一遍自己的AI任務(wù)就能對其性能和開發(fā)難易度有個大致了解,畢竟AI應(yīng)用的落地不在于跑矩陣乘法計算有多快,而在于開發(fā)者愿不愿意選擇這個開發(fā)平臺的硬件與軟件。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • asic
    +關(guān)注

    關(guān)注

    34

    文章

    1205

    瀏覽量

    120621
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4764

    瀏覽量

    129173
收藏 人收藏

    評論

    相關(guān)推薦

    ASICGPU的原理和優(yōu)勢

    ? 本文介紹了ASICGPU兩種能夠用于AI計算的半導(dǎo)體芯片各自的原理和優(yōu)勢。 ASICGPU
    的頭像 發(fā)表于 01-06 13:58 ?427次閱讀
    <b class='flag-5'>ASIC</b>和<b class='flag-5'>GPU</b>的原理和優(yōu)勢

    GPU是如何訓(xùn)練AI大模型的

    AI模型的訓(xùn)練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU
    的頭像 發(fā)表于 12-19 17:54 ?189次閱讀

    《CST Studio Suite 2024 GPU加速計算指南》

    GPU Computing Guide》是由Dassault Systèmes Deutschland GmbH發(fā)布的有關(guān)CST Studio Suite 2024的GPU計算指南。涵蓋GP
    發(fā)表于 12-16 14:25

    《算力芯片 高性能 CPUGPUNPU 微架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    CPU、GPU的演進歷程,AI專用芯片或?qū)⒁I(lǐng)未來計算平臺的新方向。正如愛因斯坦所說:\"想象力比知識更重要\" —— 在芯片設(shè)計領(lǐng)域,創(chuàng)新思維帶來的突破往往令人驚嘆。
    發(fā)表于 11-24 17:12

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的推理做了優(yōu)化,因此相比
    的頭像 發(fā)表于 10-29 14:12 ?612次閱讀
    FPGA和<b class='flag-5'>ASIC</b>在大模型推理加速中的應(yīng)用

    GPU加速計算平臺是什么

    GPU加速計算平臺,簡而言之,是利用圖形處理器(GPU)的強大并行計算能力來加速科學計算、數(shù)據(jù)分析、機器學習等復(fù)雜
    的頭像 發(fā)表于 10-25 09:23 ?270次閱讀

    AI芯片的混合精度計算與靈活可擴展

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)當前,AI技術(shù)和應(yīng)用蓬勃發(fā)展,其中離不開AI芯片的支持。AI芯片是一個復(fù)雜而多樣的領(lǐng)域,根據(jù)其設(shè)計目標和應(yīng)用場景的不同,可以采用不同的架構(gòu),如GPU、FP
    的頭像 發(fā)表于 08-23 00:08 ?4985次閱讀

    自動駕駛?cè)笾髁餍酒軜?gòu)分析

    當前主流的AI芯片主要分為三類,GPU、FPGA、ASIC。GPU、FPGA均是前期較為成熟的芯片架構(gòu),屬于通用型芯片。ASIC屬于為
    的頭像 發(fā)表于 08-19 17:11 ?1714次閱讀
    自動駕駛?cè)笾髁餍酒軜?gòu)分析

    為什么GPUAI如此重要?

    GPU在人工智能中相當于稀土金屬,甚至黃金,它們在當今生成式人工智能時代中的作用不可或缺。那么,為什么GPU在人工智能發(fā)展中如此重要呢?什么是GPU圖形處理器(GPU)是一種通常用于進
    的頭像 發(fā)表于 05-17 08:27 ?741次閱讀
    為什么<b class='flag-5'>GPU</b>對<b class='flag-5'>AI</b>如此重要?

    AI訓(xùn)練,為什么需要GPU

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI大模型訓(xùn)練平臺的基石,甚至是決定性的算力底座。為什么GPU能力壓CPU,成為炙手可熱的主角呢?要回答這個問題,首先需要了解當前人工智能(
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    <b class='flag-5'>AI</b>訓(xùn)練,為什么需要<b class='flag-5'>GPU</b>?

    到底什么是ASIC和FPGA?

    上一篇文章,小棗君給大家介紹了CPU和GPU。今天,我繼續(xù)介紹計算芯片領(lǐng)域的另外兩位主角——ASIC和FPGA。█ASIC(專用集成電路)上篇提到,
    的頭像 發(fā)表于 04-16 08:05 ?210次閱讀
    到底什么是<b class='flag-5'>ASIC</b>和FPGA?

    AI服務(wù)器異構(gòu)計算深度解讀

    AI服務(wù)器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內(nèi)的主要選擇(占比91.9%)。
    發(fā)表于 04-12 12:27 ?675次閱讀
    <b class='flag-5'>AI</b>服務(wù)器異構(gòu)<b class='flag-5'>計算</b>深度解讀

    FPGA在深度學習應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    基礎(chǔ)設(shè)施,人們?nèi)匀粵]有定論。如果 Mipsology 成功完成了研究實驗,許多正受 GPU 折磨的 AI 開發(fā)者將從中受益。 GPU 深度學習面臨的挑戰(zhàn) 三維圖形是 GPU 擁有如此
    發(fā)表于 03-21 15:19

    汽車通信芯片匯總梳理

    的控制中心,優(yōu)點在于調(diào)度管理、協(xié)調(diào)能力強,但CPU計算能力相對有限。因此,對于AI高性能計算而言,人們通常用GPU/FPGA/ASIC來做加
    的頭像 發(fā)表于 02-20 16:44 ?1672次閱讀
    汽車通信芯片匯總梳理

    到底什么是ASIC和FPGA?

    。 FPGA的架構(gòu),是無批次(Batch-less)的。每處理完成一個數(shù)據(jù)包,就能馬上輸出,時延更有優(yōu)勢。 那么,問題來了。GPU這里那里都不如FPGA和ASIC,為什么還會成為現(xiàn)在AI計算
    發(fā)表于 01-23 19:08