0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MLPerf首次GPT大模型推理放榜 墨芯連續(xù)三屆登頂

墨芯人工智能 ? 來源:墨芯人工智能 ? 2023-09-14 14:15 ? 次閱讀

隨著ChatGPT等AIGC應(yīng)用掀起大模型浪潮,算力層作為基礎(chǔ)設(shè)施,成為最先受益的產(chǎn)業(yè)。

然而,算力需求大、費(fèi)用昂貴等問題,已成為企業(yè)落地大模型的普通痛點(diǎn),更可能制約AI向前發(fā)展:大模型參數(shù)日益增長(zhǎng),而算力供給瓶頸迫在眉睫,二者形成巨大矛盾。

如何探索更好的大模型算力方案,是業(yè)界共同關(guān)注的焦點(diǎn)。

近日,全球權(quán)威測(cè)評(píng)MLPerf 公布最新推理測(cè)評(píng)結(jié)果,這是MLPerf首度引入GPT大模型推理測(cè)試,參與熱度再創(chuàng)紀(jì)錄,收到了來自英偉達(dá)、英特爾、谷歌、高通等企業(yè)提交的13500 多項(xiàng)性能結(jié)果。

4aa1d2b4-52bd-11ee-a25d-92fbcf53809c.png

在MLPerf Inference 3.1中,墨芯人工智能(Moffet AI)S30計(jì)算卡在大模型GPT-J(60億參數(shù))上,單卡、4卡、8卡的算力均獲得第一。

這是墨芯在MLPerf上連續(xù)第三次衛(wèi)冕。此前墨芯曾在MLPerf Inference 2.0與2.1上,連續(xù)兩屆獲得第一。

墨芯的成績(jī),為大模型算力方案帶來了可行的創(chuàng)新方向。

事實(shí)證明:結(jié)合AI模型與計(jì)算平臺(tái)的軟硬協(xié)同創(chuàng)新,能夠釋放更大的算力潛力。這也再度印證:以稀疏計(jì)算為代表的創(chuàng)新技術(shù),將是大模型時(shí)代算力發(fā)展的關(guān)鍵。

墨芯參加的是MLPerf開放分區(qū),據(jù)主辦方MLCommons介紹,該分區(qū)旨在鼓勵(lì)創(chuàng)新。因此參賽者可以通過軟硬協(xié)同等方式,探索對(duì)算力的提升。在MLPerf中的GPT-J大模型上,與4nm制程的H100純硬件加速方案相比,12nm制程的墨芯S30計(jì)算卡通過“原創(chuàng)的雙稀疏算法+硬件協(xié)同”方式,取得了高達(dá)1.8倍的優(yōu)勢(shì)。

本次測(cè)評(píng)的GPT-J模型是生成式AI模型,墨芯S30計(jì)算卡在8卡、4卡、單卡模式下,性能分別為170.59,91.57,23.28 (Sample/s),達(dá)到英偉達(dá)H100性能的1.6倍、1.8倍、1.8倍,展現(xiàn)出墨芯產(chǎn)品在AIGC類任務(wù)上的能力。

4b02a418-52bd-11ee-a25d-92fbcf53809c.png

三度奪冠,大模型算力率先“交卷”,軟硬協(xié)同持續(xù)創(chuàng)新——墨芯的產(chǎn)品實(shí)力數(shù)次經(jīng)過MLPerf的嚴(yán)格檢驗(yàn),也探索出大模型算力發(fā)展的新路徑。

1

稀疏計(jì)算——大模型“潛力股”

獲得市場(chǎng)認(rèn)可

墨芯接連的優(yōu)異成績(jī),主要得益于基于稀疏化算法的軟硬協(xié)同設(shè)計(jì)。

在大模型時(shí)代,稀疏計(jì)算的重要性不言而喻:AI模型大小與其稀疏化潛力成正比。

也就是說,當(dāng)模型越大,算法上有更大稀疏的可能性,稀疏計(jì)算可加速的幅度也越高。對(duì)于一般大型語言模型,稀疏計(jì)算可帶來數(shù)十倍加速。

墨芯獨(dú)創(chuàng)的雙稀疏算法,結(jié)合軟硬協(xié)同設(shè)計(jì),使墨芯Antoum芯片成為全球首款高稀疏倍率AI芯片,支持高達(dá)32倍稀疏——這也正是墨芯在本次MLPerf中創(chuàng)新紀(jì)錄的關(guān)鍵。

模型越大,稀疏計(jì)算的優(yōu)勢(shì)越明顯——尤其是在GPT等大模型參數(shù)動(dòng)輒上百億、千億的現(xiàn)狀下,這使得墨芯的護(hù)城河更為穩(wěn)固。

墨芯的產(chǎn)品實(shí)力與稀疏計(jì)算的大勢(shì)所趨,也獲得了市場(chǎng)的認(rèn)可:墨芯商業(yè)化進(jìn)程接連取得重要突破,助力企業(yè)加速AI應(yīng)用。

就在近日,墨芯成為支持Byte MLPerf的供應(yīng)商之一。

4b33ae5a-52bd-11ee-a25d-92fbcf53809c.png

來源:Byte MLPerf網(wǎng)站

當(dāng)前,墨芯AI計(jì)算平臺(tái)已能夠支持不同參數(shù)級(jí)別的大模型,包括 BLOOM, OPT, GPT-J,LLaMA,StableDiffusion等。同時(shí)具有高吞吐、低延時(shí)、低功耗等特點(diǎn),緩解算力之困,真正為企業(yè)帶來“好用”、“用得起”的大模型算力方案。

2

帶來根本性的算力變革

稀疏計(jì)算助力大模型發(fā)展

墨芯的稀疏計(jì)算方案不僅能夠緩解當(dāng)前的算力難題,也為AI的持續(xù)發(fā)展打開新的空間。

稀疏計(jì)算減少了AI模型的計(jì)算量,這意味著能讓大模型既在參數(shù)量上躍升若干個(gè)數(shù)量級(jí)的同時(shí),又不產(chǎn)生過大的計(jì)算量,大模型參數(shù)增長(zhǎng)與算力瓶頸的矛盾有望從根本上得到解決。

同時(shí),由于計(jì)算量的減少,大模型的高算力需求、高功耗、高費(fèi)用等痛點(diǎn),也一并得到解決,實(shí)現(xiàn)“多贏”效果。

墨芯Antoum芯片:全球首款高稀疏倍率AI芯片,支持高達(dá)32倍稀疏

連續(xù)三屆MLPerf的優(yōu)異成績(jī),不僅是對(duì)墨芯產(chǎn)品實(shí)力的證明,也為業(yè)界帶來新啟示:在稀疏計(jì)算等技術(shù)的助力下,大模型的發(fā)展與應(yīng)用有望迎來更廣闊的施展空間,加速AIGC等應(yīng)用在各行各業(yè)遍地開花。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    354

    瀏覽量

    15380
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1887

    瀏覽量

    35028
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1561

    瀏覽量

    7683

原文標(biāo)題:MLPerf首次GPT大模型推理放榜,墨芯連續(xù)三屆登頂

文章出處:【微信號(hào):墨芯人工智能,微信公眾號(hào):墨芯人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    立儀科技受邀參加第三屆中國(guó)傳感器與應(yīng)用技術(shù)大會(huì)

    ?11月11日,備受矚目的"第三屆中國(guó)傳感器與應(yīng)用技術(shù)大會(huì)"在深圳光明云谷國(guó)際會(huì)議中心隆重舉行。立儀科技作為國(guó)內(nèi)專注光譜共焦傳感器領(lǐng)域的公司榮幸受邀參加此次盛會(huì)并進(jìn)行業(yè)務(wù)簽約。 ? 立儀科技受邀參加
    的頭像 發(fā)表于 11-15 16:25 ?357次閱讀
    立儀科技受邀參加第<b class='flag-5'>三屆</b>中國(guó)傳感器與應(yīng)用技術(shù)大會(huì)

    高效大模型推理綜述

    模型由于其在各種任務(wù)中的出色表現(xiàn)而引起了廣泛的關(guān)注。然而,大模型推理的大量計(jì)算和內(nèi)存需求對(duì)其在資源受限場(chǎng)景的部署提出了挑戰(zhàn)。業(yè)內(nèi)一直在努力開發(fā)旨在提高大模型
    的頭像 發(fā)表于 11-15 11:45 ?384次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    線上逛展 | 沉浸探索第三屆OpenHarmony技術(shù)大會(huì)五大展區(qū)

    世博中心又有什么大事發(fā)生? 第三屆OpenHarmony技術(shù)大會(huì) 五大展區(qū)全方位展示智慧互聯(lián)未來 雷科技從現(xiàn)場(chǎng)發(fā)來探展邀約 一起跟隨他的視角漫步展區(qū) 在精彩紛呈的特色產(chǎn)品、應(yīng)用案例中 體驗(yàn)OpenHarmony的快速發(fā)展吧!
    發(fā)表于 10-24 21:50

    高燃回顧|第三屆OpenHarmony技術(shù)大會(huì)精彩瞬間

    三屆OpenHarmony技術(shù)大會(huì)圓滿落幕 全球開源精英齊聚 共同展示OpenHarmony技術(shù)、生態(tài)、人才的最新進(jìn)展 見證OpenHarmony南北向生態(tài)繁榮 共繪開源生態(tài)發(fā)展藍(lán)圖 星光璀璨致謝
    發(fā)表于 10-16 18:47

    云知聲山海多模態(tài)大模型UniGPT-mMed登頂MMMU測(cè)評(píng)榜首

    近日,多模態(tài)人工智能模型基準(zhǔn)評(píng)測(cè)集MMMU更新榜單,云知聲山海多模態(tài)大模型UniGPT-mMed以通用能力、醫(yī)療專業(yè)能力雙雙排名第一的優(yōu)異成績(jī)登頂榜首,力壓GPT-4V,充分彰顯其硬核
    的頭像 發(fā)表于 10-12 14:09 ?299次閱讀
    云知聲山海多模態(tài)大<b class='flag-5'>模型</b>UniGPT-mMed<b class='flag-5'>登頂</b>MMMU測(cè)評(píng)榜首

    三屆OpenHarmony技術(shù)大會(huì)亮點(diǎn)紛呈

    10月12日—13日 第三屆OpenHarmony技術(shù)大會(huì)如期而至, 高能看點(diǎn),一觸即發(fā)! 讓我們攜手走進(jìn)這場(chǎng)技術(shù)盛宴 ?
    的頭像 發(fā)表于 10-11 11:08 ?288次閱讀
    第<b class='flag-5'>三屆</b>OpenHarmony技術(shù)大會(huì)亮點(diǎn)紛呈

    30s高能速遞 | 第三屆 OpenHarmony技術(shù)大會(huì)精彩搶鮮看

    技術(shù)引領(lǐng)筑生態(tài) 萬物智聯(lián)創(chuàng)未來 第三屆 OpenHarmony技術(shù)大會(huì) 如約而至 高燃登場(chǎng) 10月12-13日,上海世博中心 重磅嘉賓,前沿議題 看億萬代碼如何改變未來,與卓越伙伴共繪閃耀繁星 亮點(diǎn)
    發(fā)表于 10-08 17:36

    OpenAI即將發(fā)布“草莓”推理模型

    科技界迎來新動(dòng)態(tài),據(jù)可靠消息透露,OpenAI正緊鑼密鼓地籌備著一項(xiàng)重大發(fā)布——預(yù)計(jì)在兩周內(nèi),將正式推出名為“草莓”的新型AI推理模型,并將其無縫融入ChatGPT服務(wù)中。這款以卓越推理能力為核心的大模型,旨在突破現(xiàn)有
    的頭像 發(fā)表于 09-11 16:53 ?528次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對(duì)LLM大模型
    的頭像 發(fā)表于 07-24 11:38 ?896次閱讀

    佰維存儲(chǔ)第三屆“Factory Tour”即將啟航,誠(chéng)邀夢(mèng)想少年共赴精彩“”程!

    都離不開半導(dǎo)體封裝測(cè)試的精密工藝 它確保了每一顆“”的穩(wěn)定與高效 是連接數(shù)字世界與物理世界的橋梁 想親眼見證智能設(shè)備的 強(qiáng)大內(nèi)“”(存儲(chǔ)芯片)如何鍛造? 延續(xù)往屆的熱忱與初心 我們?cè)俅未淀懠Y(jié)號(hào) 第三屆佰維存儲(chǔ)“Facto
    發(fā)表于 07-08 13:36 ?192次閱讀
    佰維存儲(chǔ)第<b class='flag-5'>三屆</b>“Factory Tour”即將啟航,誠(chéng)邀夢(mèng)想少年共赴精彩“<b class='flag-5'>芯</b>”程!

    三屆中國(guó)電磁頻譜學(xué)術(shù)大會(huì)圓滿落幕,知語科技閃耀西安!

    ?西安盛事!第三屆中國(guó)電磁頻譜學(xué)術(shù)大會(huì)圓滿落幕,知語云智能科技閃耀全場(chǎng) 西安,這座承載著千年歷史文化的古都,在2024年6月21日至22日再次成為科技領(lǐng)域的焦點(diǎn)。第三屆中國(guó)電磁頻譜學(xué)術(shù)大會(huì)的圓滿收
    發(fā)表于 06-24 11:05

    國(guó)科技出席第三屆中國(guó)汽車芯片高峰論壇

    6月17-18日,2024首中國(guó)(重慶)智能汽車基礎(chǔ)軟件生態(tài)大會(huì)暨第三屆中國(guó)汽車芯片高峰論壇在重慶召開。本次大會(huì)以“基礎(chǔ)共筑,開源啟航”為主題,由中國(guó)汽車工業(yè)協(xié)會(huì)、重慶市經(jīng)濟(jì)和信息化委員會(huì)、中國(guó)電
    的頭像 發(fā)表于 06-20 11:14 ?750次閱讀

    【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗

    用于文本生成,根據(jù)提示或上下文生成連貫、富有創(chuàng)造性的文本,為故事創(chuàng)作等提供無限可能。大語言模型也面臨挑戰(zhàn)。一方面,其計(jì)算資源需求巨大,訓(xùn)練和推理耗時(shí);另一方面,模型高度依賴數(shù)據(jù),需要大規(guī)模訓(xùn)練數(shù)據(jù)才能
    發(fā)表于 05-04 23:55

    全球最強(qiáng)大模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強(qiáng)版Claude 3 Opus。據(jù)該公司稱,Claude 3系列在推理、數(shù)學(xué)、編碼、多語言理解和視覺方面全面超越了包括GPT-4在內(nèi)的所
    的頭像 發(fā)表于 03-05 09:58 ?661次閱讀

    GPT EVAL_BDPS_DRIVER可以使用GPT12 IP或GTM IP來實(shí)現(xiàn)連續(xù)定時(shí)器和單次定時(shí)器嗎?

    GPT EVAL_BDPS_DRIVER可以使用GPT12 IP或GTM IP來實(shí)現(xiàn)連續(xù)定時(shí)器和單次定時(shí)器? 是嗎?
    發(fā)表于 01-22 08:16