電子發(fā)燒友網(wǎng)報道(文/李彎彎)上個月,美國發(fā)布更新針對AI芯片的出口管制規(guī)定,新措施意在填補去年10月發(fā)布法規(guī)中的漏洞。這樣意味著,除了英偉達A100/H100之外,其針對中國市場推出的替代版本A800/H800等GPU對華出售也將受到限制。
近日,阿里云A100服務器業(yè)務暫停出租的消息傳出。這反映出,美國對AI芯片的出口管制規(guī)定,已經(jīng)對中國的算力供應造成影響。當前的情況是,需求側大模型正在快速發(fā)展,對算力的需求不斷提升;供給側英偉達GPU芯片對華銷售受阻,市面上A100/A800等現(xiàn)貨價格水漲船高,算力租賃服務售價同樣如此。而阿里云在滿足自身大模型研發(fā)需求之外,也已經(jīng)沒有足夠多算力用于對外出租。
捉襟見肘的AI算力
目前,國內(nèi)各大互聯(lián)網(wǎng)廠商都已經(jīng)推出自己的大模型產(chǎn)品,并在不斷探索技術和應用創(chuàng)新,同時各行各業(yè)的企業(yè),無論大小,都在嘗試將大模型技術引入自己的產(chǎn)品和解決方案中。而無論是大模型的研究和應用,其訓練和推理過程都需要依靠強大的算力作支撐。
百度、騰訊、字節(jié)、阿里作為國內(nèi)主要的云服務廠商。相較之下,購買和積累了更多的GPU產(chǎn)品。其中,字節(jié)跳動A100 和V100顯卡總數(shù)接近10萬塊,阿里巴巴集團也大概擁有10萬塊頂級顯卡。騰訊因為在2022年底砍掉一批英偉達訂單,其擁有的GPU數(shù)量較少。相對來說,百度所擁有的頂級GPU數(shù)量也偏少。
近年來,大模型熱潮如龍卷風般襲來,這對GPU的需求不斷增加,上述各大廠商也加大了向英偉達GPU所下的訂單,以擴大自己的基礎硬件設施儲備。今年8月,百度、字節(jié)、騰訊和阿里向英偉達下單訂購50億美元的芯片,其中價值10億美元約10萬顆英偉達A800芯片,將在年內(nèi)交付。另外價值40億美元的芯片將于2024年交付。
然而,在上個月美國發(fā)布AI芯片出口管制新規(guī)之后,這些訂單都將不能如期交付。這意味著各大互聯(lián)網(wǎng)廠商面臨著不同程度的GPU芯片緊缺的局面。
阿里云此次暫停A100服務器對外出租可想而知就是如此。阿里云是全球領先的云計算服務提供商之一,它提供各種各樣的云計算產(chǎn)品和服務,包括云服務器租賃。
阿里云云服務器租賃是一種將計算資源分配給用戶的服務,用戶可以通過互聯(lián)網(wǎng)租用虛擬化的服務器資源。這些服務器資源是在阿里云數(shù)據(jù)中心中運行的,用戶只需要根據(jù)自己的需求選擇適合自己的云服務器,并根據(jù)需要支付租金。
在10月31日開幕的2023年云棲大會上,阿里巴巴集團董事會主席蔡崇信談到,在當下的智能化時代,阿里巴巴要致力于打造AI時代最開放的云。他表示,目前,中國有80%的科技企業(yè)和一半的大模型公司都跑在阿里云上。
除了對外出租,阿里云正在研發(fā)和迭代自己的通義千問大模型,這對GPU算力的需求很高。舉例來看,OpenAI的GPT-3訓練使用了128臺英偉達A100服務器(訓練34天),對應640P算力,GPT-4模型訓練使用了3125臺英偉達A100 服務器(訓練90-100天),對應15625P算力。從GPT-3至GPT-4模型參數(shù)規(guī)模增加約10倍,用于訓練的GPU數(shù)量增加了近24倍。
根據(jù)行業(yè)人士的推測,國內(nèi)頭部大模型廠商如果對標GPT-3模型的訓練需求,需要1920臺A100/A800服務器,對應15360張GPU。如果對標GPT-4模型的訓練需求,則額外需要13705臺A100/A800服務器,對應近11萬張GPU。
根據(jù)此前傳出的一份交流紀要里,阿里云AI專家提到,阿里云在云上有上萬片的A100,整體能夠達到10萬片,集團體量應該是阿里云的5倍。該AI專家提到,大模型大規(guī)模的應用,成本也很高,比如ChatGPT完成一個推理任務,需要5張A100在2秒鐘之內(nèi)做一次推理。
大致來看,1萬張頂級顯卡才剛剛算是能夠跨進大模型的門。而如果要訓練更高級別的大模型,對GPU的需求將會呈大幅度增長。就如上文所述,阿里云擁有大約1萬張A100,已經(jīng)足夠其訓練大模型產(chǎn)品,然而如果它想訓練出對標GPT-4的模型,可能就要用上阿里集團目前所有的GPU卡。
逐漸能用的國產(chǎn)AI芯片
隨著大模型的研發(fā)和應用,以及美國對AI芯片的出口管制,目前市場面現(xiàn)有的英偉達GPU芯片已經(jīng)漲到天價,而且所剩不多,各個算力租賃服務企業(yè)價格也在不斷上漲。阿里云或許是為了率先滿足自己對算力的需求,只得暫停A100服務器對外出租。
然而這些舉措都沒有辦法真正解決,目前國內(nèi)對可用于大模型訓練和推理的AI芯片的需求問題。近日,面對美國加強對華人工智能芯片管制,英特爾率先提出應變策略。據(jù)英特爾供應鏈透露,英特爾已針對最新發(fā)布的Gaudi2推出降規(guī)版出貨,預計將不受新禁令影響。
不過,即使Gaudi2降規(guī)版短期內(nèi)能夠出貨,然而其性能必然是會大打折扣的。要知道,之前英偉達在符合去年10月法規(guī)的基礎上,推出的A800/H800,相對于A100/H100在關鍵性能上就已經(jīng)大幅限制,如今要符合更新后的出口管制規(guī)定,Gaudi2降規(guī)版計算性能還得更進一步下調(diào)。
期待國產(chǎn)AI算力芯片的突圍,才是長久之計。事實上,目前已經(jīng)有一些國產(chǎn)企業(yè)的人工智能芯片,受到客戶的青睞。比如弘信電子近日發(fā)布公告稱,已與上海燧原科技有限公司簽署采購協(xié)議,擬長期向燧原科技采購一定數(shù)量的人工智能加速卡及配套產(chǎn)品作為原材料。本次公司已正式向燧原科技下發(fā)9152片芯片采購訂單,計劃于年底前完成全部芯片的交付,快速形成國產(chǎn)算力落地。
近日也有消息傳出,百度為200臺服務器訂購了1600片昇騰910B AI芯片。到10月份,華為已向百度交付了超過60%的訂單。而且此前科大訊飛此前就已經(jīng)采用華為昇騰910B芯片,該公司還表示,當前華為昇騰910B能力已經(jīng)基本做到可對標英偉達A100。
總結
可以看到,在當前大模型的不斷發(fā)展,及美國對AI芯片的出口管制下,算力已經(jīng)出現(xiàn)了極度緊缺的情況。雖然英特爾表示,已發(fā)布針對最新發(fā)布的Gaudi2推出降規(guī)版。然而可想而知其性能將會大打折扣,而且不能確保美國后續(xù)不會針對降規(guī)版也實施限制。長久來看,發(fā)展中國自己的AI算力芯片極其重要,而如今已經(jīng)有國產(chǎn)的AI芯片可以用于大模型的訓練和推理,這無疑給國產(chǎn)AI芯片在未來的發(fā)展中增添了更多信心。
-
AI
+關注
關注
87文章
31395瀏覽量
269786 -
阿里云
+關注
關注
3文章
969瀏覽量
43172
發(fā)布評論請先 登錄
相關推薦
評論