0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

昆侖芯AI加速器組R480-X8滿足大型模型訓(xùn)練和推理的需求

昆侖芯科技 ? 來源:昆侖芯科技 ? 2023-06-30 14:56 ? 次閱讀

7月6日至8日,第六屆世界人工智能大會(WAIC2023)展覽將于上海隆重舉辦,規(guī)模達(dá)5萬平米,參展企業(yè)總數(shù)預(yù)計突破400家,創(chuàng)歷年新高。

作為AI芯片領(lǐng)域的領(lǐng)軍企業(yè),昆侖芯再度牽手WAIC,傾力打造特裝展區(qū)。屆時,昆侖芯將攜多層級產(chǎn)品矩陣亮相,生動展示公司十余年發(fā)展歷程、產(chǎn)品優(yōu)勢性能、端到端解決方案及生態(tài)共創(chuàng)成果?,F(xiàn)場更有工作人員進(jìn)行互動講解,歡迎蒞臨參觀。

7月6日 1000

7月7日-8日 900

上海世博展覽館H2館B601

展區(qū)亮點

昆侖芯系列產(chǎn)品展示

自2011年起,昆侖芯團(tuán)隊便基于真實AI場景需求研究AI計算加速,并于2017年正式提出自研XPU架構(gòu)?;谠摷軜?gòu),昆侖芯先后打造兩代云端AI芯片,并相繼推出多款A(yù)I加速卡及AI加速器組產(chǎn)品。

昆侖芯1代AI芯片

昆侖芯1代AI芯片搭載昆侖芯自研XPU架構(gòu),采用14nm工藝,16GB HBM先進(jìn)內(nèi)存和2.5D封裝技術(shù),提供高達(dá)512 GB/s的內(nèi)存帶寬,256 TOPS的算力,是國內(nèi)為數(shù)不多經(jīng)歷過互聯(lián)網(wǎng)大規(guī)模核心算法考驗的云端AI芯片。

昆侖芯AI加速卡K100

昆侖芯AI加速卡K100是專為邊緣推理打造的AI加速卡,搭載昆侖芯1代AI芯片,支持128 TOPS@INT8算力,功耗低至75W,體積小巧,適用于各類智能邊緣計算場景。

昆侖芯AI加速卡K200

昆侖芯AI加速卡K200搭載昆侖芯1代AI芯片,提供高達(dá)256 TOPS@INT8算力,HBM 16GB內(nèi)存和512 GB/s訪存帶寬,支持計算機(jī)視覺、自然語言處理、語音等深度學(xué)習(xí)及傳統(tǒng)機(jī)器學(xué)習(xí)任務(wù),適用于云數(shù)據(jù)中心或其他高計算密度的訓(xùn)練和推理場景。

昆侖芯2代AI芯片

昆侖芯2代AI芯片搭載昆侖芯自研的新一代XPU-R架構(gòu),是國內(nèi)首款采用GDDR6顯存的通用AI芯片。采用7nm制程工藝,相比1代性能提升2-3倍,算力強(qiáng)大,整數(shù)精度算力達(dá)到256 TOPS,半精度為128 TFLOPS。

昆侖芯AI加速卡R100

昆侖芯AI加速卡R100是一款基于昆侖芯2代芯片,半高半長形態(tài)的AI加速卡,可提供高達(dá)128 TOPS@INT8 和最高170 TOPS@INT8 兩種算力模式,為多樣的邊緣AI應(yīng)用場景提供最優(yōu)的性能及功耗比。

昆侖芯AI加速卡RG800

昆侖芯AI加速卡RG800基于昆侖芯自研的XPU-R架構(gòu),是一款定位于數(shù)據(jù)中心應(yīng)用場景的AI加速卡,既可用于常規(guī)模型的訓(xùn)練,也可用于多業(yè)務(wù)并發(fā)的高性能AI推理應(yīng)用,助力各行業(yè)實現(xiàn)降本增效,推進(jìn)產(chǎn)業(yè)智能化升級。

昆侖芯AI加速卡R200

昆侖芯AI加速卡R200采用昆侖芯2代AI芯片,為數(shù)據(jù)中心高性能推理提供256 TOPS@INT8的強(qiáng)大算力,全面支持自然語言處理、計算機(jī)視覺、語音以及傳統(tǒng)機(jī)器學(xué)習(xí)等各類人工智能任務(wù)。

昆侖芯AI加速器組R480-X8

昆侖芯AI加速器組R480-X8采用昆侖芯2代AI芯片,搭載8顆昆侖芯AI加速模塊R300。R480-X8可實現(xiàn)芯片間互聯(lián),提供200 GB/s片間互聯(lián)雙向聚合帶寬、高達(dá)1 PetaFLOPS@FP16的算力,多機(jī)可構(gòu)建多節(jié)點大規(guī)模并行計算集群,滿足大型模型訓(xùn)練和推理的需求。

左右滑動,了解昆侖芯兩代芯片產(chǎn)品

昆侖芯第二代系列產(chǎn)品矩陣首次亮相

針對不同參數(shù)級別的昆侖芯第二代系列產(chǎn)品矩陣首次亮相,展現(xiàn)強(qiáng)大產(chǎn)品實力,為千行百業(yè)智能化升級注入“芯”動力。

昆侖芯AI加速卡R100

昆侖芯AI加速卡RG800

昆侖芯AI加速卡R200-8F

昆侖芯大模型端到端解決方案(繼正式發(fā)布后首次參展)

昆侖芯賦能“智慧+”場景案例展示

昆侖芯始終堅持開拓創(chuàng)新,用更快、更強(qiáng)、更省的算力賦能AI應(yīng)用場景,樹立“智慧+”場景新標(biāo)桿。昆侖芯結(jié)合互聯(lián)網(wǎng)、金融、工業(yè)、交通、物流與園區(qū)等多場景的實際情況,采用先進(jìn)AI技術(shù)成果打造端到端解決方案,提升管理水平與工作效率,降低人力成本與資金損耗。進(jìn)入昆侖芯官網(wǎng)(www.kunlunxin.com)「解決方案」欄目,可了解更多昆侖芯行業(yè)解決方案詳細(xì)信息。

繼XceedCon2023昆侖芯首屆生態(tài)大會后,本次展覽,昆侖芯再次聯(lián)合眾多知名生態(tài)伙伴,集中展示搭載昆侖芯AI芯片及AI加速卡產(chǎn)品的板卡設(shè)計參考、服務(wù)器、加速模組、工控機(jī)、軟硬一體機(jī)等硬件產(chǎn)品,覆蓋互聯(lián)網(wǎng)、大模型、智慧金融、智慧物流、智慧工業(yè)、智慧交通、智能制造等領(lǐng)域,全面展示昆侖芯技術(shù)實力及生態(tài)布局。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30947

    瀏覽量

    269216
  • 模型訓(xùn)練
    +關(guān)注

    關(guān)注

    0

    文章

    18

    瀏覽量

    1342
  • 昆侖芯片
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    2274

原文標(biāo)題:WAIC 2023 | 昆侖芯攜生態(tài)伙伴重磅亮相世博展覽館,共筑AI算力芯基建

文章出處:【微信號:昆侖芯科技,微信公眾號:昆侖芯科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何使用FP8新技術(shù)加速模型訓(xùn)練

    利用 FP8 技術(shù)加速 LLM 推理訓(xùn)練越來越受到關(guān)注,本文主要和大家介紹如何使用 FP8 這項新技術(shù)
    的頭像 發(fā)表于 12-09 11:30 ?196次閱讀

    FP8數(shù)據(jù)格式在大型模型訓(xùn)練中的應(yīng)用

    本文主要介紹了 FP8 數(shù)據(jù)格式在大型模型訓(xùn)練中的應(yīng)用、挑戰(zhàn)及最佳實踐,展示了 FP8 在提升訓(xùn)練速度和效率方面的潛力和實際效果。
    的頭像 發(fā)表于 11-19 14:54 ?329次閱讀
    FP<b class='flag-5'>8</b>數(shù)據(jù)格式在<b class='flag-5'>大型模型</b><b class='flag-5'>訓(xùn)練</b>中的應(yīng)用

    IBM與AMD攜手將在IBM云上部署AMD Instinct MI300X加速器

    近日,全球領(lǐng)先的科技企業(yè)IBM與AMD共同宣布了一項重要合作。雙方計劃在IBM云上部署AMD的Instinct MI300X加速器服務(wù),以滿足企業(yè)客戶對于高性能和高效能AI
    的頭像 發(fā)表于 11-19 11:03 ?459次閱讀

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進(jìn)行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言
    的頭像 發(fā)表于 10-29 14:12 ?490次閱讀
    FPGA和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b><b class='flag-5'>加速</b>中的應(yīng)用

    NVIDIA助力麗蟾科技打造AI訓(xùn)練推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業(yè)和科研機(jī)構(gòu)提供了一套高效、靈活的 AI 訓(xùn)練推理加速
    的頭像 發(fā)表于 10-27 10:03 ?223次閱讀
    NVIDIA助力麗蟾科技打造<b class='flag-5'>AI</b><b class='flag-5'>訓(xùn)練</b>與<b class='flag-5'>推理</b><b class='flag-5'>加速</b>解決方案

    如何訓(xùn)練自己的AI模型

    訓(xùn)練自己的AI模型是一個復(fù)雜且耗時的過程,涉及多個關(guān)鍵步驟。以下是一個詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的
    的頭像 發(fā)表于 10-23 15:07 ?1624次閱讀

    AMD助力HyperAccel開發(fā)全新AI推理服務(wù)

    提高成本效率。HyperAccel 針對新興的生成式 AI 應(yīng)用提供超級加速的芯片 IP/解決方案。HyperAccel 已經(jīng)打造出一個快速、高效且低成本的推理系統(tǒng),加速了基于轉(zhuǎn)換
    的頭像 發(fā)表于 09-18 09:37 ?372次閱讀
    AMD助力HyperAccel開發(fā)全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>服務(wù)<b class='flag-5'>器</b>

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)
    的頭像 發(fā)表于 07-24 11:38 ?900次閱讀

    基于CPU的大型語言模型推理實驗

    隨著計算和數(shù)據(jù)處理變得越來越分散和復(fù)雜,AI 的重點正在從初始訓(xùn)練轉(zhuǎn)向更高效的AI 推理。Meta 的 Llama3 是功能強(qiáng)大的公開可用的大型
    的頭像 發(fā)表于 07-18 14:28 ?558次閱讀
    基于CPU的<b class='flag-5'>大型</b>語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>實驗

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    芯片的擴(kuò)展,以滿足大規(guī)模AI模型訓(xùn)練推理需求。 DGX SuperPOD配備智能控制平面,能
    發(fā)表于 05-13 17:16

    FCom富士晶體振蕩AI PC和大型模型的關(guān)鍵支持者

    在今天這個數(shù)字時代,人工智能(AI)已成為科技領(lǐng)域的重要推動力。AI PC和大型模型是實現(xiàn)這一技術(shù)飛躍的核心,而晶體振蕩則是這些計算機(jī)系統(tǒng)中不可或缺的一部分。本文將深入探討
    的頭像 發(fā)表于 05-08 17:39 ?634次閱讀
    FCom富士晶體振蕩<b class='flag-5'>器</b>:<b class='flag-5'>AI</b> PC和<b class='flag-5'>大型模型</b>的關(guān)鍵支持者

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    用于文本生成,根據(jù)提示或上下文生成連貫、富有創(chuàng)造性的文本,為故事創(chuàng)作等提供無限可能。大語言模型也面臨挑戰(zhàn)。一方面,其計算資源需求巨大,訓(xùn)練推理耗時;另一方面,
    發(fā)表于 05-04 23:55

    Arm推動生成式AI落地邊緣!全新Ethos-U85 AI加速器支持Transformer 架構(gòu),性能提升四倍

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)在嵌入式領(lǐng)域,邊緣與端側(cè)AI推理需求不斷增長,Arm既有Helium 技術(shù)使 CPU 能夠執(zhí)行更多計算密集型的 AI
    的頭像 發(fā)表于 04-16 09:10 ?4625次閱讀
    Arm推動生成式<b class='flag-5'>AI</b>落地邊緣!全新Ethos-U85 <b class='flag-5'>AI</b><b class='flag-5'>加速器</b>支持Transformer 架構(gòu),性能提升四倍

    Hitek Systems開發(fā)基于PCIe的高性能加速器滿足行業(yè)需求

    Hitek Systems 使用開放式 FPGA 堆棧 (OFS) 和 Agilex 7 FPGA,以開發(fā)基于最新 PCIe 的高性能加速器 (HiPrAcc),旨在滿足網(wǎng)絡(luò)、計算和高容量存儲應(yīng)用的需求。
    的頭像 發(fā)表于 03-22 14:02 ?648次閱讀
    Hitek Systems開發(fā)基于PCIe的高性能<b class='flag-5'>加速器</b>以<b class='flag-5'>滿足</b>行業(yè)<b class='flag-5'>需求</b>

    家居智能化,推動AI加速器的發(fā)展

    提高了系統(tǒng)的運算能力和數(shù)據(jù)處理能力,還為用戶帶來了更加智能化、個性化的生活體驗。 ? AI 加速器的發(fā)展 ? 在人工智能和機(jī)器學(xué)習(xí)任務(wù)變得日益復(fù)雜和密集之前,傳統(tǒng)的CPU和GPU已經(jīng)足以處理這些任務(wù)。然而,隨著深度學(xué)習(xí)模型的出現(xiàn)
    的頭像 發(fā)表于 02-23 00:18 ?4597次閱讀