0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

大模型引發(fā)技術變革, AI芯片公司面臨新挑戰(zhàn)

智能計算芯世界 ? 來源:機器之心 ? 2023-05-04 09:47 ? 次閱讀

ChatGPT 在全球范圍內(nèi)掀起了一場技術革命與商業(yè)浪潮,AI 市場也迎來了前所未有的機遇與增量。

當前,AI 基礎設施的算力、算法呈現(xiàn)新 “摩爾定律”:相同算力下能訓練生產(chǎn)更優(yōu)質(zhì)的模型,同時最先進的 AI 模型約每幾個月算力需求就會擴大一倍。

14d12908-e8b6-11ed-ab56-dac502259ad0.png

根據(jù)斯坦福大學和麥肯錫聯(lián)合發(fā)布的《2019 人工智能指數(shù)報告》,2012 年之前最先進 AI 模型計算量每兩年翻一倍;2012 年之后計算量每 3.4 個月翻一番,從 2012 年到 2020 年 3 月已增長 30 萬倍。

伴隨著大模型的快速迭代,其對算力的要求也不斷提高,而算力的核心就是人工智能芯片。因此,如何在新趨勢、新挑戰(zhàn)下快速響應客戶需求,推出切實可用的軟硬件解決方案,成為了擺在國內(nèi) AI 芯片企業(yè)面前的首要課題。

擁抱變化,聚焦提升產(chǎn)品

ChatGPT 及大模型技術大會上,昆侖芯科技研發(fā)總監(jiān)王志鵬表示:“作為一家芯片公司,需要對市場的需求和變化非常敏感,才能使硬件產(chǎn)品始終精準匹配主流需求?!?/p>

大模型對計算的要求主要體現(xiàn)在三個方面,一是算力,二是互聯(lián),三是成本。就大模型而言,昆侖芯科技在產(chǎn)品定義上已經(jīng)做出布局 —— 相較第一代產(chǎn)品,昆侖芯 2 代 AI 芯片可大幅優(yōu)化算力、互聯(lián)和高性能,而在研的下一代產(chǎn)品則將提供更佳的性能體驗。

昆侖芯科技成立于 2021 年,前身為百度智能芯片及架構(gòu)部。在實際業(yè)務場景中深耕 AI 加速領域已逾 10 年,專注打造擁有強大通用性、易用性和高性能的通用人工智能芯片。

在持續(xù)推進核心技術攻關的同時,昆侖芯科技緊密關注科技前沿,精準匹配市場需求。目前,公司已實現(xiàn)兩代通用 AI 芯片的量產(chǎn)及落地應用,在互聯(lián)網(wǎng)、智慧金融、智慧交通等領域已規(guī)模部署數(shù)萬片。

14eff248-e8b6-11ed-ab56-dac502259ad0.png

昆侖芯在大模型場景的規(guī)模落地實踐

“來自真實場景” 一直是昆侖芯科技最獨特的身份標簽,也是其規(guī)模部署數(shù)萬片、在行業(yè)內(nèi) “領跑落地” 的核心優(yōu)勢所在。

王志鵬認為,只有基于真實業(yè)務場景中的數(shù)據(jù)進行端到端優(yōu)化,才能順利推進大模型落地。

目前市場上主流的大模型以 Transformer 架構(gòu)為主,包含 Encoder 和 Decoder。Encoder 主要被應用于各類 NLP 的判別類任務;而 Decoder 更多被應用于翻譯、圖文生成等場景,最近出圈的 ChatGPT 就是典型代表。

針對大模型,昆侖芯持續(xù)打磨部署優(yōu)化方案,領跑產(chǎn)業(yè)落地。昆侖芯已將大模型的 Transformer 相關優(yōu)化技術沉淀為重要基建,優(yōu)化后的性能比原有方案提升 5 倍以上,壓縮顯存 30% 以上。

以文生圖大模型為例,昆侖芯已跑通一條端到端優(yōu)化、規(guī)模落地之路。

AI 繪畫模型的推理算力及顯存需求隨圖像分辨率增大而指數(shù)級增加,同時,圖像生成需要循環(huán)采樣數(shù)十次,產(chǎn)業(yè)落地動輒需要高昂成本的部署集群,嚴重阻礙了 AIGC 模型大規(guī)模商業(yè)化落地。

2022 年第四季度,昆侖芯聯(lián)合客戶,基于飛槳 PaddlePaddle 發(fā)起了端到端聯(lián)合優(yōu)化項目。在 2-3 周內(nèi),項目組快速完成端到端優(yōu)化,最終實現(xiàn)輸入文本后 2 秒出圖的優(yōu)化效果,性能提升近 8 倍。

目前,昆侖芯 AI 加速卡 R200 已在該客戶的大模型場景完成規(guī)模部署,性能數(shù)據(jù)全面超越同系列主流推理卡:

基于昆侖芯 AI 加速卡 R200 高效運算與推理能力,綜合優(yōu)化方案,在 dpm-25steps 算法下,利用昆侖芯 AI 加速卡 R200,生成 1024*1024 圖像時的推理速度為 10.89 iters/s,相比同能力的主流推理卡快 20%。

昆侖芯 AI 加速卡 R200 擁有 32G GDDR6 顯存,為大規(guī)模參數(shù)提供更大的存儲容量、更高帶寬的內(nèi)存訪問、更穩(wěn)定的性能,生成更高分辨率的圖片,為用戶提供高性價比服務。

與此同時,面向當前市場需求迫切的大模型場景,據(jù)悉昆侖芯科技即將推出一款加速器組解決方案。

該加速器組搭載第二代昆侖芯 AI 芯片,是 AI 基礎設施的重要組成部分,為 AI IAAS 平臺、 AI PAAS 平臺提供堅實算力支撐。該產(chǎn)品可提供更為集約的 AI 算力,具備分布式集群部署能力,支持彈性 RDMA 網(wǎng)絡,對比傳統(tǒng)網(wǎng)絡通信時延降低 2~3 倍。該產(chǎn)品可明顯提高并行加速比,訓推一體化助力提高資源利用率,極大提升模型開發(fā)迭代效率。

攜手上層伙伴共拓 AI 芯生態(tài)

ChatGPT 及大模型技術大會上,與會者提問:在生態(tài)建設方面,國內(nèi) AI 芯片產(chǎn)業(yè)面臨的客觀情況是什么?

這也是昆侖芯科技經(jīng)常被客戶提及的現(xiàn)實問題。

昆侖芯科技在努力進一步擴大生態(tài)影響力:首先要深刻理解客戶的使用習慣,滿足客戶需求,踏踏實實把軟硬件從產(chǎn)品和技術上做到位。隨著產(chǎn)品的規(guī)模部署,客戶越來越多,生態(tài)也就自然而然建立起來了。與此同時,產(chǎn)品也會因此得到更好的打磨,進入良性循環(huán)。

在昆侖芯科技看來,AI 芯片看似是一個硬件,但其本質(zhì)則是一款軟件產(chǎn)品。這也證明了軟件棧、生態(tài)對于 AI 芯片發(fā)展的關鍵作用。

目前,昆侖芯已實現(xiàn)對飛槳的原生適配,并完成了 III 級兼容性測試,訓練與推理性能可以滿足用戶的應用需求。從底層 AI 算力組件、AI 服務器,到操作系統(tǒng),再到昆侖芯 SDK,昆侖芯和飛槳攜手完成了一套端到端的 AI 計算系統(tǒng)解決方案,并致力于打造一個全棧式軟硬一體的 AI 生態(tài)。

為進一步完善軟件生態(tài),昆侖芯已與多款通用處理器、操作系統(tǒng)、主流框架完成端到端適配,實現(xiàn)了軟硬件解決方案的技術棧,為客戶提供開箱即用的 AI 芯片產(chǎn)品。

15015312-e8b6-11ed-ab56-dac502259ad0.png

昆侖芯軟件棧

結(jié)語

談及大模型趨勢下 AI 芯片公司面對的變化,王志鵬說道: “必須快速調(diào)整心態(tài),并擁抱大模型帶來的變化?!?/p>

而這也剛好印證了昆侖芯科技 “突破創(chuàng)新” 的公司文化:面對瞬息萬變的外部環(huán)境,突破創(chuàng)新是適應行業(yè)的唯一方式。

面對復雜多變的市場環(huán)境以及新場景新應用對研發(fā)和落地的重重挑戰(zhàn),國內(nèi) AI 芯片公司如何出圈?

集十余年 AI 加速領域的技術積淀,曾任百度智能芯片及架構(gòu)部首席架構(gòu)師、現(xiàn)任昆侖芯科技 CEO 歐陽劍認為,“AI 芯片公司應抓住場景和技術創(chuàng)新‘雙驅(qū)動’模式,驅(qū)動架構(gòu)優(yōu)化升級與軟硬件產(chǎn)品迭代,這是持續(xù)保持競爭力的關鍵?!?/p>

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    30947

    瀏覽量

    269217
  • 智能芯片
    +關注

    關注

    0

    文章

    138

    瀏覽量

    25246
  • ChatGPT
    +關注

    關注

    29

    文章

    1562

    瀏覽量

    7724

原文標題:大模型引發(fā)技術變革, AI芯片公司面臨新挑戰(zhàn)

文章出處:【微信號:AI_Architect,微信公眾號:智能計算芯世界】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AMD MI300X AI芯片面臨挑戰(zhàn)

    近日,據(jù)芯片顧問機構(gòu)Semianalysis經(jīng)過5個月的深入調(diào)查后指出,AMD最新推出的“MI300X”AI芯片在軟件缺陷和性能表現(xiàn)上未能達到預期,因此在挑戰(zhàn)NVIDIA市場領導地位方
    的頭像 發(fā)表于 12-25 10:57 ?281次閱讀

    【「大模型啟示錄」閱讀體驗】對大模型更深入的認知

    的平衡,解釋得清清楚楚,讓我這個非專業(yè)人士也能明白大模型在實際應用中面臨挑戰(zhàn)和限制,也對這些模型的復雜性和挑戰(zhàn)有了更深的理解。 而且,書
    發(fā)表于 12-20 15:46

    Cadence如何應對AI芯片設計挑戰(zhàn)

    生成式 AI 引領智能革命成為產(chǎn)業(yè)升級的核心動力并點燃了“百模大戰(zhàn)”。多樣化的大模型應用激增對高性能AI 芯片的需求,促使行業(yè)在摩爾定律放緩的背景下,加速推進 2.5D、3D 及 3.
    的頭像 發(fā)表于 12-14 15:27 ?684次閱讀

    名單公布!【書籍評測活動NO.49】大模型啟示錄:一本AI應用百科全書

    一次大模型變革中,完全不缺態(tài)度,只缺認知與落地的經(jīng)驗。 在過去的兩年中,我們看到了全球太多的巨頭和普通中小企業(yè),進入All in AI的投資周期。有的已經(jīng)開始落地到具體的生產(chǎn)流程,例如企業(yè)內(nèi)部客服、優(yōu)化
    發(fā)表于 10-28 15:34

    億鑄科技熊大鵬探討AI大算力芯片挑戰(zhàn)與解決策略

    在SEMiBAY2024《HBM與存儲器技術與應用論壇》上,億鑄科技的創(chuàng)始人、董事長兼CEO熊大鵬博士發(fā)表了題為《超越極限:大算力芯片技術挑戰(zhàn)與解決之道》的演講,深入剖析了
    的頭像 發(fā)表于 10-25 11:52 ?405次閱讀

    AI for Science:人工智能驅(qū)動科學創(chuàng)新》第二章AI for Science的技術支撐學習心得

    計算的結(jié)合 我深刻體會到高性能計算(HPC)在AI for Science中的重要性。傳統(tǒng)的科學計算往往面臨計算量大、計算時間長等問題,而AI技術的引入可以顯著提高計算效率。同時,HP
    發(fā)表于 10-14 09:16

    當前主流的大模型對于底層推理芯片提出了哪些挑戰(zhàn)

    隨著大模型時代的到來,AI算力逐漸變成重要的戰(zhàn)略資源,對現(xiàn)有AI芯片也提出了前所未有的挑戰(zhàn):大算力的需求、高吞吐量與低延時、高效內(nèi)存管理、能
    的頭像 發(fā)表于 09-24 16:57 ?663次閱讀

    億鑄科技談大算力芯片面臨技術挑戰(zhàn)和解決策略

    隨著人工智能技術的飛速發(fā)展,算力已成為推動產(chǎn)業(yè)變革的關鍵力量,但大模型的快速發(fā)展,參數(shù)的爆發(fā),對于算力需求也提出了更高的要求,帶來了全新的挑戰(zhàn)。那大算力
    的頭像 發(fā)表于 08-07 10:03 ?822次閱讀

    AI模型與傳統(tǒng)AI的區(qū)別

    AI模型(如LLM,即大型語言模型)與傳統(tǒng)AI在多個方面存在顯著的區(qū)別。以下將從技術層面、應用場景、性能表現(xiàn)、計算資源和成本、以及發(fā)展趨勢
    的頭像 發(fā)表于 07-15 11:37 ?2776次閱讀

    AI模型的發(fā)展歷程和應用前景

    領域取得重要突破。本文將深入解析AI模型的基本原理、發(fā)展歷程、應用前景以及面臨挑戰(zhàn)與爭議,為讀者提供一個全面而深入的科普視角。
    的頭像 發(fā)表于 07-03 18:20 ?1177次閱讀

    高盛報告引發(fā)對科技公司AI投資回報的熱烈討論

    在科技浪潮洶涌澎湃的當下,人工智能(AI技術無疑是引領這場變革的領航者。然而,當科技公司紛紛加大在AI領域的投資力度時,高盛近期發(fā)布的一份
    的頭像 發(fā)表于 07-01 17:13 ?436次閱讀

    模型時代,程序員當下如何應對 AI挑戰(zhàn)

    隨著 AI 技術的飛速發(fā)展,特別是大模型的出現(xiàn),傳統(tǒng)的程序員角色正在經(jīng)歷深刻的變革,我們不得不重新對自己進行審視和思考。 通用領域大模型的“
    的頭像 發(fā)表于 06-28 16:19 ?545次閱讀
    大<b class='flag-5'>模型</b>時代,程序員當下如何應對 <b class='flag-5'>AI</b> 的<b class='flag-5'>挑戰(zhàn)</b>

    后摩智能引領AI芯片革命,推出邊端大模型AI芯片M30

    在人工智能(AI技術飛速發(fā)展的今天,AI模型的部署需求正迅速從云端向端側(cè)和邊緣側(cè)設備遷移。這一轉(zhuǎn)變對AI
    的頭像 發(fā)表于 06-28 15:13 ?688次閱讀

    “從無處不在到無人不用”,大模型推動邊緣計算變革的機遇與挑戰(zhàn)

    《從云到端 AI觸手可及》2024年芯原AI專題技術研討會上,芯原執(zhí)行副總裁、IP事業(yè)部總經(jīng)理戴偉進作了“大模型推動邊緣計算變革的機遇與
    的頭像 發(fā)表于 06-18 16:11 ?1105次閱讀
    “從無處不在到無人不用”,大<b class='flag-5'>模型</b>推動邊緣計算<b class='flag-5'>變革</b>的機遇與<b class='flag-5'>挑戰(zhàn)</b>

    sora模型是什么意思 sora模型引發(fā)行業(yè)變革

    約為290億美元),且文生視頻大模型將會大幅推動人工智能基礎設施的需求,英偉達、OpenAI、軟銀等巨頭公司都被曝正在進行AI芯片的制造布局,英偉達也因大
    的頭像 發(fā)表于 02-22 17:00 ?1859次閱讀