0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Neuchips展示大模型推理ASIC芯片

SSDFans ? 來源:SSDFans ? 2025-01-06 17:30 ? 次閱讀

領(lǐng)先的AI專用集成電路ASIC)解決方案提供商Neuchips在CES 2024上展示了其革命性的Raptor Gen AI加速芯片(以前稱為N3000)和Evo PCIe加速卡LLM解決方案。新的芯片解決方案Raptor使企業(yè)能夠以現(xiàn)有解決方案的一小部分成本部署大型語言模型(LLM)推理。

NeuchipsCEO Ken Lau表示:“我們很高興在CES 2024上向業(yè)界展示我們的Raptor芯片和Evo卡。Neuchips的解決方案代表了自然語言處理在性價比上的巨大飛躍。有了Neuchips,任何組織都可以在廣泛的AI應(yīng)用中從LLM中獲得力量?!?/p>

LLM民主化

Raptor和Evo共同提供了一個優(yōu)化的堆棧,使企業(yè)可以輕松訪問市場領(lǐng)先的LLM。與現(xiàn)有解決方案相比,Neuchips的AI解決方案顯著降低了硬件成本。高能效也最大限度地減少了用電量,進一步降低了總擁有成本。

在CES 2024上,Neuchips展示了Raptor和Evo,在個人AI助理應(yīng)用程序上加速Whisper和LlamaAI聊天機器人。該解決方案突出了LLM推理對實際業(yè)務(wù)需求的強大功能。

其他技術(shù)會議將展示Raptor和Evo如何削減語音到文本應(yīng)用程序的部署成本。

Raptor GenAI加速器為突破LLM性能提供動力

Raptor每個芯片的運算速度高達(dá)每秒200TOPS。它在AI推理操作(如矩陣乘法、向量和嵌入表查找)方面的出色性能適用于Gen-AI和基于變壓器的AI模型。這一突破性的吞吐量是通過Neuchips為神經(jīng)網(wǎng)絡(luò)量身定制的專利壓縮和效率優(yōu)化來實現(xiàn)的。

Evo第5代PCIe卡為加速和低功耗設(shè)定新標(biāo)準(zhǔn)

與Raptor互補的是Neuchips的超低功耗Evo加速卡。Evo結(jié)合了8通道PCIe Gen 5和32GB LPDDR5,實現(xiàn)64 GB/s主機I/O帶寬和1.6 Tbps每秒的內(nèi)存帶寬,每卡僅55瓦。

正如DLRM所展示的那樣,Evo還具有100%的可擴展性,允許客戶通過添加更多芯片來線性提高性能。這種模塊化設(shè)計確保了對未來AI工作負(fù)載的投資保護。

公司2024年下半年推出了HHHL(half-height half-length)外形產(chǎn)品Viper,提供更大的部署靈活性。新系列在緊湊的設(shè)計中帶來了數(shù)據(jù)中心級的AI加速。

原文鏈接:

https://www.techpowerup.com/317298/neuchips-to-showcase-industry-leading-gen-ai-inferencing-accelerators-at-ces-2024


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ASIC芯片
    +關(guān)注

    關(guān)注

    2

    文章

    92

    瀏覽量

    23825
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    298

    瀏覽量

    361

原文標(biāo)題:Neuchips展示大模型推理ASIC芯片!

文章出處:【微信號:SSDFans,微信公眾號:SSDFans】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    智譜推出深度推理模型GLM-Zero預(yù)覽版

    近日,智譜公司正式發(fā)布了其深度推理模型GLM-Zero的預(yù)覽版——GLM-Zero-Preview。這款模型標(biāo)志著智譜在擴展強化學(xué)習(xí)技術(shù)訓(xùn)練推理模型方面的重大突破,成為其首個專注于增強AI推理
    的頭像 發(fā)表于 01-03 10:42 ?155次閱讀

    智譜GLM-Zero深度推理模型預(yù)覽版正式上線

    近日,智譜公司宣布其深度推理模型GLM-Zero的初代版本——GLM-Zero-Preview已正式上線。這款模型是智譜首個基于擴展強化學(xué)習(xí)技術(shù)訓(xùn)練的推理模型,標(biāo)志著智譜在AI推理領(lǐng)域
    的頭像 發(fā)表于 01-02 10:55 ?153次閱讀

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?145次閱讀
    如何開啟Stable Diffusion WebUI<b class='flag-5'>模型</b><b class='flag-5'>推理</b>部署

    阿里云開源推理模型QwQ

    推理能力,尤其在數(shù)學(xué)和編程方面表現(xiàn)突出。其整體推理水平已經(jīng)可以與OpenAI的o1模型相媲美,這充分展示了QwQ的強大實力和潛力。 QwQ(Qwen with Questions)是通
    的頭像 發(fā)表于 11-29 11:30 ?603次閱讀

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應(yīng)用,模型的計算需求大幅提升,帶來推理時延高、資源消耗大等挑戰(zhàn)。
    的頭像 發(fā)表于 11-15 14:20 ?504次閱讀
    使用vLLM+OpenVINO加速大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    高效大模型推理綜述

    模型由于其在各種任務(wù)中的出色表現(xiàn)而引起了廣泛的關(guān)注。然而,大模型推理的大量計算和內(nèi)存需求對其在資源受限場景的部署提出了挑戰(zhàn)。業(yè)內(nèi)一直在努力開發(fā)旨在提高大模型
    的頭像 發(fā)表于 11-15 11:45 ?527次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理ASIC,像Groq的LPU,專門針對大語言
    的頭像 發(fā)表于 10-29 14:12 ?645次閱讀
    FPGA和<b class='flag-5'>ASIC</b>在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速中的應(yīng)用

    澎峰科技高性能大模型推理引擎PerfXLM解析

    自ChatGPT問世以來,大模型遍地開花,承載大模型應(yīng)用的高性能推理框架也不斷推出,大有百家爭鳴之勢。在這種情況下,澎峰科技作為全球領(lǐng)先的智能計算服務(wù)提供商,在2023年11月25日發(fā)布了針對大語言
    的頭像 發(fā)表于 09-29 10:14 ?538次閱讀
    澎峰科技高性能大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>引擎PerfXLM解析

    OpenAI即將發(fā)布“草莓”推理模型

    科技界迎來新動態(tài),據(jù)可靠消息透露,OpenAI正緊鑼密鼓地籌備著一項重大發(fā)布——預(yù)計在兩周內(nèi),將正式推出名為“草莓”的新型AI推理模型,并將其無縫融入ChatGPT服務(wù)中。這款以卓越推理能力為核心的大模型,旨在突破現(xiàn)有GPT-4
    的頭像 發(fā)表于 09-11 16:53 ?555次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大模型
    的頭像 發(fā)表于 07-24 11:38 ?968次閱讀

    如何加速大語言模型推理

    的主要挑戰(zhàn)。本文將從多個維度深入探討如何加速大語言模型推理過程,以期為相關(guān)領(lǐng)域的研究者和開發(fā)者提供參考。
    的頭像 發(fā)表于 07-04 17:32 ?599次閱讀

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    用于文本生成,根據(jù)提示或上下文生成連貫、富有創(chuàng)造性的文本,為故事創(chuàng)作等提供無限可能。大語言模型也面臨挑戰(zhàn)。一方面,其計算資源需求巨大,訓(xùn)練和推理耗時;另一方面,模型高度依賴數(shù)據(jù),需要大規(guī)模訓(xùn)練數(shù)據(jù)才能
    發(fā)表于 05-04 23:55

    模型推理顯卡選購指南:4090顯卡為何成為不二之選

    眾所周知,在人工智能領(lǐng)域,尤其是在模型訓(xùn)練和推理階段,顯卡的性能至關(guān)重要。隨著模型的規(guī)模越來越大,對算力的需求也會倍增。因此,如何選擇合適的顯卡,魚(性能)和性價比(熊掌)是否可以兼得,是許多
    的頭像 發(fā)表于 04-11 11:00 ?820次閱讀
    大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>顯卡選購指南:4090顯卡為何成為不二之選

    Groq LPU崛起,AI芯片主戰(zhàn)場從訓(xùn)練轉(zhuǎn)向推理

    人工智能推理的重要性日益凸顯,高效運行端側(cè)大模型及AI軟件背后的核心技術(shù)正是推理。不久的未來,全球芯片制造商的主要市場將全面轉(zhuǎn)向人工智能推理
    的頭像 發(fā)表于 02-29 16:46 ?1236次閱讀

    Groq推出大模型推理芯片 超越了傳統(tǒng)GPU和谷歌TPU

    Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統(tǒng)GPU和谷歌TPU。
    的頭像 發(fā)表于 02-26 10:24 ?1095次閱讀
    Groq推出大<b class='flag-5'>模型</b><b class='flag-5'>推理</b><b class='flag-5'>芯片</b> 超越了傳統(tǒng)GPU和谷歌TPU