0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

不再焦慮GPU供應,8芯片挑戰(zhàn)5萬億參數(shù)大模型

E4Life ? 來源:電子發(fā)燒友網(wǎng) ? 作者:周凱揚 ? 2023-09-27 09:10 ? 次閱讀

電子發(fā)燒友網(wǎng)報道(文/周凱揚)隨著LLM與生成式AI熱度不減,不少AI芯片初創(chuàng)公司都找到了新的發(fā)力點,紛紛調整設計思路,專為這一爆款應用開發(fā)出了新款芯片。且不說這些芯片的實際性能如何,但這無疑是當下推動這些公司獲得投資,并在行業(yè)下行期存活下去的救命稻草。今天我們就來聊聊剛發(fā)布新品SN40L的AI芯片初創(chuàng)公司SambaNova。

SN40L背后的SambaNova

SambaNova成立于2017年,截至目前已經(jīng)歷了共計6輪融資,參與融資的公司包括谷歌、英特爾和軟銀等,融資總額高達11億美元。只不過最近的D輪融資,距今已經(jīng)有兩年多的時間,也難怪SambaNova急于推出SN40L這一芯片,畢竟此類初創(chuàng)公司的開發(fā)從來都是燒錢的。

其實在SN40L推出以前,SambaNova也并非默默無聞,比如美國阿貢國家實驗室早在第一代產(chǎn)品SN10推出時就在使用和測試SambaNova的系統(tǒng)了,只不過屆時基于SN10的SambaNova Dataflow系統(tǒng)還只是用于消除數(shù)據(jù)噪聲而已。

如果我們現(xiàn)在看阿貢國家實驗室的ALCF AI測試平臺,我們可以看到5大系統(tǒng),分別是Cerebras的CS2、SambaNova的Dataflow、Graphcore的Bow Pod64、Grop系統(tǒng)以及Habana的Gaudi。而目前用于ALCF AI測試平臺的SambaNova Dataflow就是基于SN40L的上一代產(chǎn)品SN30 RDU打造的,該芯片基于臺積電的7nm工藝打造。

目前SN30用在阿貢國家實驗室的這套系統(tǒng)主要用于一些科學研究領域的AI計算,比如中微子物理、癌癥預測、氣候建模以及下一代汽車引擎研發(fā)等。而我們真正關注的是剛發(fā)布的SN40L,以及它在LLM這一應用上能提供何種不同的優(yōu)勢。

英偉達GPU的替代方案

目前LLM的主流方案,即英偉達的A100、H100 GPU,存在一個很大的問題,那就是缺貨。對于任何互聯(lián)網(wǎng)廠商來說,在市面上找到足夠多的GPU都是一件費錢費力的事。而對于云服務廠商來說也是如此,他們也要考慮出租這類服務器時,GPU的算力與容量分配問題。

wKgaomUTgVGAKNovADO8XqFE2PU092.png
SN40L芯片和CEO Rodrigo Liang / SambaNova


為了解決“數(shù)量”的問題,SambaNova推出了SN40L。相較上一代的SN30,該芯片基于臺積電5nm工藝打造,每個芯片集成了1020億個晶體管和1040個核,算力高達638TFlops。更夸張的是,SambaNova稱單個SN40L系統(tǒng)節(jié)點(8塊SN40L芯片)就能支持到最高5萬億參數(shù)的大模型。

與其他AI芯片初創(chuàng)公司不一樣的是,他們并沒有選擇直接將芯片賣給其他公司這條路線,而是選擇了售賣訪問其定制AI技術棧的訪問權,包括其自研硬件和運行超大模型的軟件等。這種商業(yè)模式或許能吸引一部分互聯(lián)網(wǎng)公司,但在云服務廠商眼中,他們應該不會覺得這是一套可盈利的方案。

此外,SambaNova與其他競爭對手一樣,在AI芯片上引入了64GB HBM用于解決內(nèi)存墻的問題,這也是SN40L與上一代芯片的差異之一。只不過SambaNova并沒有透露SN40L用的是何種HBM,以及帶寬性能如何。

寫在最后

雖然SambaNova展示了提高LLM擴展性的另一條道路,但在沒有經(jīng)過實際驗證之前,市場還是會對其持觀望態(tài)度。此前也有不少AI芯片公司發(fā)表過同樣大膽的聲明,但事實證明這類芯片只適合用于運行那些預訓練完成的模型,而訓練過程仍需要靠GPU來完成。所以哪怕SambaNova的CEO Rodrigo Liang強調SN40L的訓練性能足夠優(yōu)秀,但是否能在這套商業(yè)模式下闖出一片天,就得交由市場去驗證了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4744

    瀏覽量

    129016
  • SambaNova
    +關注

    關注

    0

    文章

    7

    瀏覽量

    214
  • SN40L
    +關注

    關注

    0

    文章

    2

    瀏覽量

    46
收藏 人收藏

    評論

    相關推薦

    AI大模型不再依賴英偉達GPU?蘋果揭秘自研大模型

    ? 電子發(fā)燒友網(wǎng)報道(文/梁浩斌)過去幾年中爆發(fā)的AI算力需求,英偉達GPU成為了最大的贏家,無論是自動駕駛還是AI大模型,比如特斯拉、小鵬、OpenAI、字節(jié)跳動等廠商都在爭相搶購英偉達GPU產(chǎn)品
    的頭像 發(fā)表于 08-05 06:07 ?4016次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>不再</b>依賴英偉達<b class='flag-5'>GPU</b>?蘋果揭秘自研大<b class='flag-5'>模型</b>

    GPU是如何訓練AI大模型

    在AI模型的訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何訓練AI大模型的。
    的頭像 發(fā)表于 12-19 17:54 ?147次閱讀

    PyTorch GPU 加速訓練模型方法

    在深度學習領域,GPU加速訓練模型已經(jīng)成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為一個流行的深度學習框架,提供了豐富的工具和方法來利用GPU進行模型訓練。 1. 了解
    的頭像 發(fā)表于 11-05 17:43 ?577次閱讀

    當前主流的大模型對于底層推理芯片提出了哪些挑戰(zhàn)

    隨著大模型時代的到來,AI算力逐漸變成重要的戰(zhàn)略資源,對現(xiàn)有AI芯片也提出了前所未有的挑戰(zhàn):大算力的需求、高吞吐量與低延時、高效內(nèi)存管理、能耗等等。
    的頭像 發(fā)表于 09-24 16:57 ?677次閱讀

    英偉達Blackwell可支持10萬億參數(shù)模型AI訓練,實時大語言模型推理

    、NVLink交換機、Spectrum以太網(wǎng)交換機和Quantum InfiniBand交換機。 ? 英偉達稱,Blackwell擁有6項革命性技術,可支持多達10萬億參數(shù)模型進行AI訓練
    的頭像 發(fā)表于 09-04 09:10 ?2924次閱讀

    英偉達震撼發(fā)布:全新AI模型參數(shù)規(guī)模躍升至80億量級

    8月23日,英偉達宣布,其全新AI模型面世,該模型參數(shù)規(guī)模高達80億,具有精度高、計算效益大等優(yōu)勢,適用于GPU加速的數(shù)據(jù)中心、云及工作站環(huán)
    的頭像 發(fā)表于 08-23 16:08 ?751次閱讀

    暴漲預警!NVIDIA GPU供應大跳水

    gpu
    jf_02331860
    發(fā)布于 :2024年07月26日 09:41:42

    模型發(fā)展下,國產(chǎn)GPU的機會和挑戰(zhàn)

    電子發(fā)燒友網(wǎng)站提供《大模型發(fā)展下,國產(chǎn)GPU的機會和挑戰(zhàn).pdf》資料免費下載
    發(fā)表于 07-18 15:44 ?10次下載
    大<b class='flag-5'>模型</b>發(fā)展下,國產(chǎn)<b class='flag-5'>GPU</b>的機會和<b class='flag-5'>挑戰(zhàn)</b>

    AI初出企業(yè)Cerebras已申請IPO!稱發(fā)布的AI芯片GPU更適合大模型訓練

    美國加州,專注于研發(fā)比GPU更適用于訓練AI模型的晶圓級芯片,為復雜的AI應用構建計算機系統(tǒng),并與阿布扎比科技集團G42等機構合作構建超級計算機?;谄渥钚缕炫?b class='flag-5'>芯片構建的服務器可輕松高
    的頭像 發(fā)表于 06-26 00:09 ?2930次閱讀
    AI初出企業(yè)Cerebras已申請IPO!稱發(fā)布的AI<b class='flag-5'>芯片</b>比<b class='flag-5'>GPU</b>更適合大<b class='flag-5'>模型</b>訓練

    中國電信發(fā)布全球首個單體稠密萬億參數(shù)語義模型

    近日,中國電信人工智能研究院(TeleAI)攜手北京智源人工智能研究院,共同推出了全球首個單體稠密萬億參數(shù)語義模型——Tele-FLM-1T,這一里程碑式的成就標志著中國電信在人工智能領域取得了重大突破,并成為了國內(nèi)首批發(fā)布稠密
    的頭像 發(fā)表于 06-20 10:50 ?666次閱讀

    萬卡集群解決大模型訓算力需求,建設面臨哪些挑戰(zhàn)

    ? 電子發(fā)燒友網(wǎng)報道(文/李彎彎)萬卡集群是指由一萬張及以上的加速卡(包括GPU、TPU及其他專用AI加速芯片)組成的高性能計算系統(tǒng),主要用于加速人工智能模型的訓練和推理過程。這種集群的構建旨在
    的頭像 發(fā)表于 06-02 06:18 ?4770次閱讀
    萬卡集群解決大<b class='flag-5'>模型</b>訓算力需求,建設面臨哪些<b class='flag-5'>挑戰(zhàn)</b>

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    百億億次計算和萬億參數(shù)模型提供基礎 NVIDIA推出世界首個高速GPU互連技術NVLink?,提供的速度遠超基于PCIe的解決方案,是多GPU系統(tǒng)擴展內(nèi)存和性能的理想選擇。NVLink
    發(fā)表于 05-13 17:16

    模型時代,國產(chǎn)GPU面臨哪些挑戰(zhàn)

    ,國產(chǎn)GPU在不斷成長的過程中也存在諸多挑戰(zhàn)。 ? 在大模型訓練上存在差距 ? 大語言模型是基于深度學習的技術。這些模型通過在海量文本數(shù)據(jù)上
    的頭像 發(fā)表于 04-03 01:08 ?4681次閱讀
    大<b class='flag-5'>模型</b>時代,國產(chǎn)<b class='flag-5'>GPU</b>面臨哪些<b class='flag-5'>挑戰(zhàn)</b>

    FPGA在深度學習應用中或將取代GPU

    現(xiàn)場可編程門陣列 (FPGA) 解決了 GPU 在運行深度學習模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達 (Nvidia) 和 AMD 等公司的股價也大幅
    發(fā)表于 03-21 15:19

    Groq推出大模型推理芯片 超越了傳統(tǒng)GPU和谷歌TPU

    Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統(tǒng)GPU和谷歌TPU。
    的頭像 發(fā)表于 02-26 10:24 ?1060次閱讀
    Groq推出大<b class='flag-5'>模型</b>推理<b class='flag-5'>芯片</b> 超越了傳統(tǒng)<b class='flag-5'>GPU</b>和谷歌TPU