電子發(fā)燒友網(wǎng)報道(文/周凱揚)對于每個想要自己開發(fā)和部署AI模型的應用開發(fā)者來說,硬件和服務器支出都是一筆不小的費用。就以英偉達的GPU為例,即便是消費級的GPU,最近也迎來了一波漲價潮,更不用爆火的A100/H100等型號了。
即便是租賃服務器,基于這些熱門硬件的服務器也遠算不上便宜,因此不少云服務廠商為了進一步拉攏更多AI應用開發(fā)者,紛紛推出了性價比更高的選項。這些選項有的是基于CPU的AI計算服務器,有的是基于第三方AI加速器打造的服務器,還有的則是由云服務廠商基于自研加速器打造且獨家提供的服務器。
谷歌高性價比TPU面世
谷歌在今年8月底發(fā)布了第五代的自研TPU,TPU v5e。谷歌稱該加速器實現(xiàn)了性能與成本效益的平衡。相比上一代TPU v4,TPU V5e提供了同成本下兩倍的訓練性能,以及針對LLM和生成式AI模型2.5倍的推理性能。
TPU v5e架構(gòu)
單個TPU v5e Pod由256個芯片互聯(lián),總帶寬超過400Tb/s,INT8總算力達100petaOps。而且谷歌為TPU v5e采用了更靈活的配置選項,其支持8個不同的虛擬機配置,單個切片支持單芯片到250多個芯片,如此一來客戶就可以根據(jù)自己的模型大小來選擇合適的配置。
而且過去借助谷歌TPU進行的訓練負載只局限于單個切片中,谷歌為此開發(fā)了Multislice技術(shù),可通過芯片間互聯(lián)以及數(shù)據(jù)中心網(wǎng)絡中的多個TPU Pod相連,從而將訓練工作擴展到數(shù)萬個芯片上。
為了進一步擴大對開發(fā)生態(tài)的支持,TPU v5e還內(nèi)置了對JAX、Pytorch和Tensorflow等領先AI框架,以及 Hugging Face 的 Transformers 和 Accelerate、PyTorch Lightning 和 Ray等一系列常用開源工具的支持。
開放使用與自用
近日,谷歌終于宣布TPU v5e進入公用階段,且在最新的MLPerf訓練3.1測試中,TPUv5e獲得了更好的表現(xiàn)。在該測試中,谷歌改進了創(chuàng)新的混合精度訓練算法,除了原生支持的BF16外,還用到了INT8精度格式。這意味著客戶在提高了模型準確性的同時,將花費更少的成本。
從谷歌云對于TPU v5e的定價表來看,v5e在成本效益上確實有著極大的優(yōu)勢。不過需要注意的是,v5e與v2、v3 Pod類似,每個芯片中只有一個TensorCore,而v4 Pod的每個芯片中有兩個TensorCore。這也是為何v5e的單芯片峰值算力為197TFLOPS,而v4的單芯片峰值算力為275TFLOPS,可即便如此,在按芯片小時的定價下,其所需成本依然低于v4。
在如此高的性價比下,谷歌不僅將TPU提供給外部開發(fā)者使用,其內(nèi)部一些開發(fā)項目也開始用上TPU v5e。比如其PaLM模型的創(chuàng)建,就用到了上文提到的Multislice技術(shù),谷歌的Bard團隊同樣在用TPU v5e訓練這一生成式AI聊天機器人。
寫在最后
其實在TPUv5e開放使用之前,谷歌也正式開放了A3 VM這類GPU加速虛擬機的使用。這也是多數(shù)云服務廠商采用的多方案供應策略,其自研加速器只需要為客戶提供一個高性價比的方案,而追求更高性能的客戶,依然可以選擇基于H100 GPU打造的服務器。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
相關推薦
過去,SiC的晶體生長速度慢、良率低,導致生產(chǎn)成本較高,一直限制了SiC的普及。 ? 不過在近期據(jù)媒體報道,有業(yè)內(nèi)人士預計,未來兩年SiC芯片價格將下降達30%,原因在于越來越多的本地廠商開始獲得電動汽車認證并擴大了其制造能力。SiC芯片將
發(fā)表于 08-03 00:59
?4463次閱讀
美國站群服務器的成本效益分析是一個復雜但至關重要的過程,它涉及到多個方面的考量。主機推薦小編為您推薦美國站群服務器成本效益的詳細分析。
發(fā)表于 10-30 11:23
?117次閱讀
原文標題:低成本高效益 | 自連醫(yī)療設備無線化改造實例匯集
文章出處:【微信公
發(fā)表于 10-24 17:25
?175次閱讀
英偉達CEO黃仁勛近期強調(diào),人工智能(AI)的未來趨勢將聚焦于具備“推理”能力的服務,但這一愿景的實現(xiàn)需以降低計算成本為前提。這一觀點是在他與Arm首席執(zhí)行官Rene Haas的對話中提出的,該對話由Arm在其官方網(wǎng)站上發(fā)布。
發(fā)表于 10-10 14:35
?410次閱讀
谷歌近期震撼推出全球首款完全由人工智能驅(qū)動的游戲引擎——GameNGen,這一創(chuàng)新技術(shù)標志著游戲開發(fā)領域的新紀元。GameNGen憑借其強大的計算能力,能夠在單個TPU上實現(xiàn)每秒20幀的實時游戲生成,每一幀畫面均源自精密的擴散模
發(fā)表于 08-29 18:07
?890次閱讀
,在訓練尖端人工智能方面,大型科技公司正在尋找英偉達以外的替代品。 ? 不斷迭代的谷歌TPU 芯片 ? 隨著機器學習算法,特別是深度學習算法在各個領域的廣泛應用,對于高效、低功耗的AI
發(fā)表于 07-31 01:08
?3375次閱讀
不久前,國內(nèi)機器人公司宇樹科技在其官方公眾號推送了一篇名為《UnitreeG1人形智能體AI化身¥9.9萬元起》的文章,宣布其推出了一款9.9萬的人形智能機器人。十萬不到的價格,瞬間讓人有一種科幻
發(fā)表于 05-25 08:05
?448次閱讀
當日,谷歌在年度I/O開發(fā)者大會上展示了一系列人工智能產(chǎn)品,包括新增的旗艦級Gemini AI模型Gemini 1.5 Flash以及AI搜索引擎等,進一步鞏固了其在網(wǎng)絡搜索領域的領先地位。
發(fā)表于 05-17 09:36
?443次閱讀
谷歌推出了其最新的人工智能數(shù)據(jù)中心芯片——Trillium。這款芯片是谷歌的第六代產(chǎn)品,與上一代TPU v5e相比,Trillium在每個芯片上的峰值計算性能提高了4.7倍,節(jié)能67%
發(fā)表于 05-16 10:39
?780次閱讀
谷歌近日宣布與YouTube合作,推出全新音樂工具Music AI Sandbox。這款AI音樂創(chuàng)作工具將與傳統(tǒng)AI音樂應用如Suno等展開競爭,為用戶提供更多元化的音樂創(chuàng)作體驗。
發(fā)表于 05-16 09:44
?393次閱讀
在今日舉行的I/O 2024開發(fā)者大會上,谷歌公司震撼發(fā)布了其第六代數(shù)據(jù)中心AI芯片——Trillium Tensor處理器單元(TPU)。據(jù)谷歌首席執(zhí)行官皮查伊透露,這款新型
發(fā)表于 05-15 11:18
?635次閱讀
應用中的成本。
最后,RISC-V多核芯片不僅可以應用于AI邊緣計算領域,還可以擴展到其他領域,如數(shù)據(jù)中心、云計算、自動駕駛、機器人等,為這些領域提供
發(fā)表于 04-28 09:20
谷歌公司近日宣布,其全新的AI大模型Gemma現(xiàn)已在全球范圍內(nèi)開放使用。這一重要舉措不僅彰顯了谷歌在AI領域的領先地位,還為其在全球范圍內(nèi)的
發(fā)表于 02-28 18:12
?1151次閱讀
Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統(tǒng)GPU和谷歌TPU。
發(fā)表于 02-26 10:24
?1044次閱讀
谷歌公司近日宣布,其先進的AI大模型Gemma即日起在全球范圍內(nèi)開放使用。這一新模型由谷歌DeepMind和其他團隊合作開發(fā),并與其最大的AI
發(fā)表于 02-23 10:41
?781次閱讀
評論